Jaja, amikor az Intel volt a CPU király, akkor is mekkora határ volt már a 4 mag 8 szál!
Aztán jött az AMD egy vadonatúj architektúrával, és azóta valahogyan csak évről évre van brutális fejlődés (X3D).
Itt is kb. ez lehet. Nvidia nyeregben érzi magát, minek fejlesszen hardware-t, mikor szoftverfejlesztés olcsóbb, és a többi gyártó amúgy se közelíti meg a csúcs nvidia kártyák teljesítményét.
Azért a visszafogottságban benne volt, hogy NEM fért hozzá frissebb, jobb gyártástechnológiához, ahogy az AMD se, mert Apple elszipkázta előlük a gyártókapacitást. Így AI vonalon is annyit tudtak tenni, hogy összevontak egységeket, amik játékban kb. semmit nem hoznak, de az AI gyorsabb tőle. Már van is pletyka róla, hogy pont ezért a következő eresztést (Rubin platform) már előrehozták 2025 végére. De már jobb gyártástechnológiával. Azt nem tudom az átjön e gamer vonalra, de esélyes.
Más. Örülök a fejlesztéseknek, fejlődésnek. Viszont szakmai topikban kitárgyalták, hogy hiába tesz le valamit egy gyártó, ha a szoftver ipar nem építi be (DirectX/Vulcan) cseszhetik. Fel is volt sorolva pár tech, ami az RTX2000 óta szunnyad a kártyákban, mindhiába. Ebből nekünk az a fontos, hogy ha be is építik, akkor kb. 1-2 generáció után fogjuk látni játékokban ezeket.
Már meg nem tudom mondani melyik oldalon volt ilyen 1.5 órás videó, amiben belemennek nagyon a 50xx-ek lélektanába, ott azt mondták, hogy ez az architektúra kb vége, most jött el az idő a teljes újratervezésnek a CUDA magok, input, backend, setup motor egyebek részen - mert ez még mindig "csak" a 2xxx/3xxx sorozat alapjainak a "reszelése". Reméljük igazuk lesz.
De jön (reméljük, bár az AMD a 7xxx sorozatnál pont befürdött kicsit vele) a tile alapú elrendezés is a 60xx-eknél elvileg, hátha az is tud hozni a konyhára.
Na meg persze az AMD is méltóztathatna fejleszteni, esetleg. De legalábbis 2 év után _NEM_ visszafejlődni (mint amit most csinál majd a 9070, oké legalább olcsóbban).
a 9070 még jó is lehet. nekem nem az a bajom hogy nem elég gyorsak hanem hogy nem elég olcsók a kártyák. ha egy 4080 teljesítményét hozzák RT-vel és kb fele áron akkor az egy csodálatos kártya lesz. ha nem akkor meg kapják be :D bár 7900xt-ről nem fogok ilyenre váltani de azért a piacnak jót tenne.
Azért nem tudok, mert ilyen 3 betűs rövidítésekben ment az eszmecsere, aztán egy nem használt funkciót én abból nem találok ki. De ott említették, hogy az új beharangozott NVidia újítások egy része azért mehet a régi kártyákon is, mert eddig is bele volt drótozva, csak nem használták még.
A konkurenciára kíváncsi leszek, mert ugye kb. kiadták újra az RX7800 és 7900GRE kártyákat, "csak" RDNA4 verzióban. Állítólag RT-ben beérve NVidiát. Részben átdolgozták azt a részét, ami ellenőrzi mi látszik, mi nem látszik, ez fényévekkel gyorsabb, ha jól értem vagy 8x ... Persze ettől nem lesz 8x gyorsabb az RT, de sokat dob rajta.
Meg volt egy ilyen pletyka, hogy az Epic-es arcokkal bekerült valami tech, ami a PCG-t gyorsítja. Ez ugye procedurálisan generált map-et takarja, ami megint nem tudom mennyire érdekes, mert még nagyon félkész és nem biztos, hogy nem csak az Unreal Engine 6-ban jön ki.
Itt persze nem azokra a szenvedős, félig sem működő megoldásokra kell gondolni, amikkel eddig előjöttek fejlesztők, bár a No Man's Sky azért már tényleg tudott is valamit.
Nyilván én is, de 23-án kiderül.
Ja és amit írtak, hogy NVidiai előrehozta a nextgent, AMD is már a Zen6 + UDNA grafikára gyúr 2026 elejére. Nyilván ők is új gyártástechnológiára ugorva, aminek hiányát eddig ők is megszívták.
Kíváncsi leszek lesz e benne PCIe6 (desktopon semmi nem indokolja), mert az előző generációs alaplapok 4.0 majd az 5.0 miatt voltak olyan drágák, már a ddr5 mellett.
Ugye a PCIe 6.0 vezérlők ipari cuccokba már nyár óta gyártásban vannak, a PCIe 7 is lassan véglegesítve lesz. Elvileg mindkettő még félig optikai átvitel lesz, így még sokkal drágább lehet, mint az előzőek.
Nagyjából a 4080 szintjét hozza raszterben, van ahol meg is előzi. Ellenben sajnos pont az RT benchmark maradt ki NVIDIA vs AMD fronton. Persze lehetne kalkulálgatni az AMD vs AMD RT bench-ek alapján, de nem fogok :D
te mit gondolsz róla? én azt is jogosnak érzem, ha valaki azt mondja nem jó, de azt is ha valaki szerint fantasztikus kártya.
amennyivel gyorsabb lett annyival többet is fogyaszt, meg annyival drágább is. kb 0 architekturális előrelépés. vagy lehet a neural rendering iszonyat jó lesz, de jelenleg mi használja?
ugyanakkor eddig a 4090 volt a csúcs, ez meg 30%-al gyorsabb. hűtésben is alkottak valamit, kisebb kártya lett és megbírkózik +125W hővel.
- Mezei architektúra tekintetében annyi tűnik előrelépésnek, hogy nincs dedikált INT32 feldolgozó, hanem mindegyik tud FP32-t és INT32-t egyszerre. Ez gondolom javít a hatékonyságon.
- Az architektúrális újdonságok az AI-hoz és az RT-hez kapcsolódnak. Szerintem ez kurva jó lesz (a Neural Rendering dolgok) , de ahogy mondod, mire ezt érdemben használni kezdik.... de tutira ez a jövő.
- Ugyanazon a node-on 30% nem rossz, de ahogy mondod, a fogyasztás is nőtt
Viszont ami ettől független, hogy a CP2077 alapján a beszámolók szerint a DLSS4 nagyon jó. Nagyot javult a képminőség, a stabilitás, és csökkent a VRAM igény. Ezt viszont a korábbi genek ugyanúgy használhatják. Tényleg ott tartunk, hogy lassan a 4K Ultra Performance-nál se mondja meg az átlag user, hogy nem natív 4K.
Ezek alapján a korábbi véleményemet revideálva azt mondom, 4090-ről nem biztos, hogy azonnal váltanék. Ha csak nem kell a gaming mellett pro felhasználásra a 32GB VRAM.
Bocs, de ha az NV-t ekéztem, pont ugyanaz (sőt) jár az AMD-nek is. 2.5 évvel később kiad egy 7900XT/GRE kártyát csak olcsóbban? Hát na ettől aztán sem lesz lekváros a palacsinta. Max a bukta.
Talán még örülnünk kéne, hogy nem adja ki ugyanazt, ugyanolyan áron... mit csináltak a mérnökök, kurváztak?
Jó hogy nem azt mondod, hogy lőjünk fel tűzijátékot, mert egy 2.5 éves használt autó olcsóbb, mint a vatta új xD
Menjenek el kapálni, ha nem megy már a fejlesztés, aztán mi meg elfogadjuk hogy a 7900 széria volt olyan mint a 3dfx-nek a voodoo5 vagy az S3-nak a savage2000. :(
Úgy néz ki az új DLSS engine a beszámolók alapján jobb (értsd: szebb) mint a régi (transformer a becsületes neve az új metódusnak btw), kíváncsi leszek. Ami pozitív, ezt megkapják a régebbi VGA-k.
Mondjuk egy percig se kételkedem, hogy lesz mókolás/hack hogy a 2x/3x/4x frame gen is menjen a régebbi szériákon is, de én ebből úgyse kérek, szóval leszarom.
Szerintem egy rtx4080 teljesítménye olcsón elég lenne a játékosok 90%ának. Ha ezt hozza az amd akkor lehet népkártya a 9070xt. De az biztos hogy elég balfék az amd gpu részleg összességében. Vicces hogy az intel 2 generáció alatt minőségben és teljesítményben kb beérte őket.
Nem hülyeség, ha jó árban jön, akkor egy rx580-as kategória lesz szvsz, vagyis annak ellenére, hogy nem a legerősebb, egy nagyon is használható, legendary kártya lesz.
Steam Survey-el jövök megint, de rengeteg ember használ 3060 szintű kártyákat, és pl. én is 3070-en vagyok, de nekem így is EGYELŐRE a 9070xt nagyon szimpatikus az előzetes infók alapján. Persze mégegyszer, minden az áron fog múlni. Ha jól áraz au AMD (doubt), akkor mindent söpörni fog az eladásokkal.
Arról még ugye nincs is infó, hogy mennyire lehet majd UV-zni, de szerintem brutális módon (mintha valamit vastam volna erről), ami megint csak nagyon komoly lenne.
Chiller írta: Úgy néz ki az új DLSS engine a beszámolók alapján jobb (értsd: szebb) mint a régi (transformer a becsületes neve az új metódusnak btw), kíváncsi leszek. Ami pozitív, ezt megkapják a régebbi VGA-k.
Mondjuk egy percig se kételkedem, hogy lesz mókolás/hack hogy a 2x/3x/4x frame gen is menjen a régebbi szériákon is, de én ebből úgyse kérek, szóval leszarom.
Most bogarászom alaposabban a Techpowerup számait. Ne EZ tényleg impresszív, gyakorlatilag nem ad hozzá latencyt a többszörös framegen, és még a natívhoz képest se túl sokat.
Viszont az extra hőt nem nagyon tudja kivezetni a hűtés, úgy tűnik még jól szellőző házban sem megy ki rendesen, úgyhogy alaposan befűti a procit. Valszeg ez jobban érinti azokat, akik nem vízzel nyomulnak, bár ezen a szinten már nemtom ki az, aki nem vizet használ.
Milyen jó szándékú, tisztességes ember mert volna ehhez a szép tokhoz hozzányúlni, hogy adott esetben közvetlenül a chipre tegye a hűtést? Hát tudod kik? Az AMD-s parasztok! Meg talán akkor még Cyrix is volt. Na, ők meg cigányok voltak 😂
(viccet félretéve, akkor tényleg csak az Intel volt komolyan vehető, csak emberünk kissé elfogult volt még ettől függetlenül is)
Ha emlékszel, egy a PII és a PIII első generációja külön áramköri lapon jött, ahova kiszervezték a proci memóriáját, mert így olcsóbb volt gyártani. Erre egy műanyag tokot csavaroztak, ami már tartalmazta a ventilátort is, lényegében egy fedett hűtőborda volt. A csavarjai úgy voltak megoldva, hogy egyszer kicsavarod, már elvben nem tudod ugyanúgy összerakni - kvázi, mint egy zárjegy. Legalábbis ilyesmire emlékszem.
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
XDD oké. így tisztább.
ez az hogy nem emlékszek ilyenre, mert volt P II gépem de akkor még nem nagyon buheráltam a belsejét. a sempronos időktől kezdve vagyok valamennyire képben az ilyen PC anatómiai dolgokkal.
https://www.techpowerup.com/review/nvidia-geforce-rtx-50-technical-deep-...
Ezek az AI cuccok azért meglehetősen impresszívnek tűnnek :O
Chief Exorcist
Inkább erről beszélj, e:
rwurl=https://i.imgur.com/Uz865ay.png
És mindezt nagyobb fogyasztással XD
Bár ez inkább szomorú :(
Hát de mit lehet erre mondani, ez a vége. A fizika törvényeit nem lehet megbaszni :(
Chief Exorcist
Jaja, amikor az Intel volt a CPU király, akkor is mekkora határ volt már a 4 mag 8 szál!
Aztán jött az AMD egy vadonatúj architektúrával, és azóta valahogyan csak évről évre van brutális fejlődés (X3D).
Itt is kb. ez lehet. Nvidia nyeregben érzi magát, minek fejlesszen hardware-t, mikor szoftverfejlesztés olcsóbb, és a többi gyártó amúgy se közelíti meg a csúcs nvidia kártyák teljesítményét.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Azért a visszafogottságban benne volt, hogy NEM fért hozzá frissebb, jobb gyártástechnológiához, ahogy az AMD se, mert Apple elszipkázta előlük a gyártókapacitást. Így AI vonalon is annyit tudtak tenni, hogy összevontak egységeket, amik játékban kb. semmit nem hoznak, de az AI gyorsabb tőle. Már van is pletyka róla, hogy pont ezért a következő eresztést (Rubin platform) már előrehozták 2025 végére. De már jobb gyártástechnológiával. Azt nem tudom az átjön e gamer vonalra, de esélyes.
Más. Örülök a fejlesztéseknek, fejlődésnek. Viszont szakmai topikban kitárgyalták, hogy hiába tesz le valamit egy gyártó, ha a szoftver ipar nem építi be (DirectX/Vulcan) cseszhetik. Fel is volt sorolva pár tech, ami az RTX2000 óta szunnyad a kártyákban, mindhiába. Ebből nekünk az a fontos, hogy ha be is építik, akkor kb. 1-2 generáció után fogjuk látni játékokban ezeket.
Ez marha érdekes! Tudsz egy-két ilyen példát mondani, amit beépítettek a hardverbe, de aztán nem lett belőle semmi?
Chief Exorcist
Már meg nem tudom mondani melyik oldalon volt ilyen 1.5 órás videó, amiben belemennek nagyon a 50xx-ek lélektanába, ott azt mondták, hogy ez az architektúra kb vége, most jött el az idő a teljes újratervezésnek a CUDA magok, input, backend, setup motor egyebek részen - mert ez még mindig "csak" a 2xxx/3xxx sorozat alapjainak a "reszelése". Reméljük igazuk lesz.
De jön (reméljük, bár az AMD a 7xxx sorozatnál pont befürdött kicsit vele) a tile alapú elrendezés is a 60xx-eknél elvileg, hátha az is tud hozni a konyhára.
Na meg persze az AMD is méltóztathatna fejleszteni, esetleg. De legalábbis 2 év után _NEM_ visszafejlődni (mint amit most csinál majd a 9070, oké legalább olcsóbban).
a 9070 még jó is lehet. nekem nem az a bajom hogy nem elég gyorsak hanem hogy nem elég olcsók a kártyák. ha egy 4080 teljesítményét hozzák RT-vel és kb fele áron akkor az egy csodálatos kártya lesz. ha nem akkor meg kapják be :D bár 7900xt-ről nem fogok ilyenre váltani de azért a piacnak jót tenne.
Azért nem tudok, mert ilyen 3 betűs rövidítésekben ment az eszmecsere, aztán egy nem használt funkciót én abból nem találok ki. De ott említették, hogy az új beharangozott NVidia újítások egy része azért mehet a régi kártyákon is, mert eddig is bele volt drótozva, csak nem használták még.
A konkurenciára kíváncsi leszek, mert ugye kb. kiadták újra az RX7800 és 7900GRE kártyákat, "csak" RDNA4 verzióban. Állítólag RT-ben beérve NVidiát. Részben átdolgozták azt a részét, ami ellenőrzi mi látszik, mi nem látszik, ez fényévekkel gyorsabb, ha jól értem vagy 8x ... Persze ettől nem lesz 8x gyorsabb az RT, de sokat dob rajta.
Meg volt egy ilyen pletyka, hogy az Epic-es arcokkal bekerült valami tech, ami a PCG-t gyorsítja. Ez ugye procedurálisan generált map-et takarja, ami megint nem tudom mennyire érdekes, mert még nagyon félkész és nem biztos, hogy nem csak az Unreal Engine 6-ban jön ki.
Itt persze nem azokra a szenvedős, félig sem működő megoldásokra kell gondolni, amikkel eddig előjöttek fejlesztők, bár a No Man's Sky azért már tényleg tudott is valamit.
Mármint hogy RT-ben beérve az Nvidia előző gent (40xx)... elvileg, talán. De elég szkeptikus vagyok ebben :)))
Chief Exorcist
Nyilván én is, de 23-án kiderül.
Ja és amit írtak, hogy NVidiai előrehozta a nextgent, AMD is már a Zen6 + UDNA grafikára gyúr 2026 elejére. Nyilván ők is új gyártástechnológiára ugorva, aminek hiányát eddig ők is megszívták.
Kíváncsi leszek lesz e benne PCIe6 (desktopon semmi nem indokolja), mert az előző generációs alaplapok 4.0 majd az 5.0 miatt voltak olyan drágák, már a ddr5 mellett.
Ugye a PCIe 6.0 vezérlők ipari cuccokba már nyár óta gyártásban vannak, a PCIe 7 is lassan véglegesítve lesz. Elvileg mindkettő még félig optikai átvitel lesz, így még sokkal drágább lehet, mint az előzőek.
Egy kis AMD leak:
https://overclock3d.net/news/gpu-displays/amd-radeon-rx-9070-and-rx-9070-xt-benchmark-data-leaks/
Nagyjából a 4080 szintjét hozza raszterben, van ahol meg is előzi. Ellenben sajnos pont az RT benchmark maradt ki NVIDIA vs AMD fronton. Persze lehetne kalkulálgatni az AMD vs AMD RT bench-ek alapján, de nem fogok :D
"Aztakibebaszott eget, lett egy matchem Tinderen"
5090 rivjú!!!!
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edit...
Chief Exorcist
te mit gondolsz róla? én azt is jogosnak érzem, ha valaki azt mondja nem jó, de azt is ha valaki szerint fantasztikus kártya.
amennyivel gyorsabb lett annyival többet is fogyaszt, meg annyival drágább is. kb 0 architekturális előrelépés. vagy lehet a neural rendering iszonyat jó lesz, de jelenleg mi használja?
ugyanakkor eddig a 4090 volt a csúcs, ez meg 30%-al gyorsabb. hűtésben is alkottak valamit, kisebb kártya lett és megbírkózik +125W hővel.
Jah, kb pont ezt gondolom én is.
- Mezei architektúra tekintetében annyi tűnik előrelépésnek, hogy nincs dedikált INT32 feldolgozó, hanem mindegyik tud FP32-t és INT32-t egyszerre. Ez gondolom javít a hatékonyságon.
- Az architektúrális újdonságok az AI-hoz és az RT-hez kapcsolódnak. Szerintem ez kurva jó lesz (a Neural Rendering dolgok) , de ahogy mondod, mire ezt érdemben használni kezdik.... de tutira ez a jövő.
- Ugyanazon a node-on 30% nem rossz, de ahogy mondod, a fogyasztás is nőtt
Viszont ami ettől független, hogy a CP2077 alapján a beszámolók szerint a DLSS4 nagyon jó. Nagyot javult a képminőség, a stabilitás, és csökkent a VRAM igény. Ezt viszont a korábbi genek ugyanúgy használhatják. Tényleg ott tartunk, hogy lassan a 4K Ultra Performance-nál se mondja meg az átlag user, hogy nem natív 4K.
Ezek alapján a korábbi véleményemet revideálva azt mondom, 4090-ről nem biztos, hogy azonnal váltanék. Ha csak nem kell a gaming mellett pro felhasználásra a 32GB VRAM.
Chief Exorcist
Bocs, de ha az NV-t ekéztem, pont ugyanaz (sőt) jár az AMD-nek is. 2.5 évvel később kiad egy 7900XT/GRE kártyát csak olcsóbban? Hát na ettől aztán sem lesz lekváros a palacsinta. Max a bukta.
Talán még örülnünk kéne, hogy nem adja ki ugyanazt, ugyanolyan áron... mit csináltak a mérnökök, kurváztak?
Jó hogy nem azt mondod, hogy lőjünk fel tűzijátékot, mert egy 2.5 éves használt autó olcsóbb, mint a vatta új xD
Menjenek el kapálni, ha nem megy már a fejlesztés, aztán mi meg elfogadjuk hogy a 7900 széria volt olyan mint a 3dfx-nek a voodoo5 vagy az S3-nak a savage2000. :(
Úgy néz ki az új DLSS engine a beszámolók alapján jobb (értsd: szebb) mint a régi (transformer a becsületes neve az új metódusnak btw), kíváncsi leszek. Ami pozitív, ezt megkapják a régebbi VGA-k.
Mondjuk egy percig se kételkedem, hogy lesz mókolás/hack hogy a 2x/3x/4x frame gen is menjen a régebbi szériákon is, de én ebből úgyse kérek, szóval leszarom.
Szerintem egy rtx4080 teljesítménye olcsón elég lenne a játékosok 90%ának. Ha ezt hozza az amd akkor lehet népkártya a 9070xt. De az biztos hogy elég balfék az amd gpu részleg összességében. Vicces hogy az intel 2 generáció alatt minőségben és teljesítményben kb beérte őket.
Nem hülyeség, ha jó árban jön, akkor egy rx580-as kategória lesz szvsz, vagyis annak ellenére, hogy nem a legerősebb, egy nagyon is használható, legendary kártya lesz.
Steam Survey-el jövök megint, de rengeteg ember használ 3060 szintű kártyákat, és pl. én is 3070-en vagyok, de nekem így is EGYELŐRE a 9070xt nagyon szimpatikus az előzetes infók alapján. Persze mégegyszer, minden az áron fog múlni. Ha jól áraz au AMD (doubt), akkor mindent söpörni fog az eladásokkal.
Arról még ugye nincs is infó, hogy mennyire lehet majd UV-zni, de szerintem brutális módon (mintha valamit vastam volna erről), ami megint csak nagyon komoly lenne.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Most bogarászom alaposabban a Techpowerup számait. Ne EZ tényleg impresszív, gyakorlatilag nem ad hozzá latencyt a többszörös framegen, és még a natívhoz képest se túl sokat.
rwurl=https://imgur.com/bpTp9Nc
Chief Exorcist
Viszont az extra hőt nem nagyon tudja kivezetni a hűtés, úgy tűnik még jól szellőző házban sem megy ki rendesen, úgyhogy alaposan befűti a procit. Valszeg ez jobban érinti azokat, akik nem vízzel nyomulnak, bár ezen a szinten már nemtom ki az, aki nem vizet használ.
rwurl=https://imgur.com/KkmerCR
Chief Exorcist
Vagyis akkor a latency, mintha 40FPS - sel játszanál, hát ez fantasztikus! :D
"Aztakibebaszott eget, lett egy matchem Tinderen"
Mindig csak károgtok :(
Chief Exorcist
Sose használtam vizet. "A víz az akváriumba való!" - kopirájt PC Gurus OldMan
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
Erre emlékszem! Csak hülyeség, mint ahogy Oldmannek voltak berögzült mániái, mint az Intel fanatizmusa.
Chief Exorcist
A PII tokozását sem merte megbontani
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
az mit jelent?
Milyen jó szándékú, tisztességes ember mert volna ehhez a szép tokhoz hozzányúlni, hogy adott esetben közvetlenül a chipre tegye a hűtést? Hát tudod kik? Az AMD-s parasztok! Meg talán akkor még Cyrix is volt. Na, ők meg cigányok voltak 😂
(viccet félretéve, akkor tényleg csak az Intel volt komolyan vehető, csak emberünk kissé elfogult volt még ettől függetlenül is)
rwurl=https://imgur.com/a/rPTcr8H
Chief Exorcist
Ha emlékszel, egy a PII és a PIII első generációja külön áramköri lapon jött, ahova kiszervezték a proci memóriáját, mert így olcsóbb volt gyártani. Erre egy műanyag tokot csavaroztak, ami már tartalmazta a ventilátort is, lényegében egy fedett hűtőborda volt. A csavarjai úgy voltak megoldva, hogy egyszer kicsavarod, már elvben nem tudod ugyanúgy összerakni - kvázi, mint egy zárjegy. Legalábbis ilyesmire emlékszem.
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
XDD oké. így tisztább.
ez az hogy nem emlékszek ilyenre, mert volt P II gépem de akkor még nem nagyon buheráltam a belsejét. a sempronos időktől kezdve vagyok valamennyire képben az ilyen PC anatómiai dolgokkal.