Ha a tök fölösleges rongyrázást - early adopterséget - érzelmi dolgokat elfelejtjük, szerintem jelenleg egy darab észszerű döntés van: megvárni, hogy milyen az AMD RT és DLSS megoldása, és az alapján dönteni.
Addigra legalább az árak is normalizálódnak valószínűleg.
Dehat addigra mar jon majd az ampere refresh es ne feledkezzunk el az RDNA3rol ami lehet koveti azt par honapra kiforrottabb techel. Akinek van stock, az nyert. Ennyire egyszeru. :D Az emberek donto tobbsegenek ezek a kartyak mar overkill kategoriat kepezik. Kevesen 1440pznek, meg kevesebben 4kznak. 1080pre meg egy 6800 is hatalmas tulzas. Akkora kulonbseg most halistennek nem is lesz teljesitmenyben szoval ha AMD lesz elerheto hamarabb es azt vesz az ember azzal se jar rosszul. Ha nvidiat kap elobb akkor azzal se jar rosszul semmikeppen. Ezer eve nem volt ilyen, de most tenyleg leginkabb arrol szol a fama, hogy mit lehet kapni es mit nem.
Én is megvárom a teszteket, mert ezúttal mindkét brand tudja már a RT-et. Szerintem az AMD-nek nem lesz DLSS megoldása mármint direkt AI alapú felskálázás, ami ad egy FPS boostot némi image qualityért cserébe. Mondjuk jól hangzik főleg a kártya használati ciklusának vége felé, de ugye külön támogatást igényel.
Tuti lesz valami DLSS-féle dolog, és úgy tűnik univerzális / open cucc, lásd a tweet amit tegnap linkeltem.
Másrészt meg most felkerült egy cikk az Xbox oldalára, ahol részletezik az RDNA 2 feature-öket, és ott:
"innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such as ML powered super resolution"
Sanszosan ez szoftveresen fut majd a GPU-n, kihasználva az INT8 meg egyéb számítási lehetőségeket (mert hardveres cuccról mint a Tensor core nem tudunk), de valamit főznek, az tuti :)
Úgy tűnik lemaradtam erről a részről, szóval akkor, a DLSS-nek is lesz AMD-s megfelelője. Kérdés a minőség és a sebesség, ami a független tesztekből kiderül hamarosan remélhetőleg.
van ahol márciust írnak. :D
lehet csatlakozom a zombitömeghez megrohamozva egy media markt-ot majd megjelenéskor :D
ShowHide spoiler #
erre még koronamentes időszakban se lennék hajlandó nyilván :)
"People think that I must be a very strange person. This is not correct. I have the heart of a small boy. It is in a glass jar on my desk."
- Stephen King
Kb. annyira lehet számítani, hogy jó, vagy nem jó a képminőség. Kb. mint a DLSS1-nél a legtöbb teszter szerint nem volt nagy eresztés, a DLSS2 a legtöbb teszter szerint már jóval jobb lett.
500 dolláros MSRP-re 240.000 HUF árazás. Lassan ideje lenne csóri forintnak kimúlnia, követve a jugo dinár sorsát. Ha itthon is minden euróban lesz fizetve, akkor próbáljanak a hazai boltosok arcoskodni.
MNB csak az első félévben 200milliárdot!!! kaszált az árfolyamon. Az állam is nagyon jól jár, mert többet érnek az EU-s pénzek. MNB válasza: ők a legsikeresebb bank és védik az országot az inflációtól.:DD Oké.
Szédült Simon mondta a cukrásznak a vásáron:
Ide a sütikkel, vagy átkúrom a fejed a palánkon.
When people get too chummy with me I like to call them by the wrong name to let them know I don't really care about them. - Ron Swanson
Ennyiért egyelőre nyugodtan megtarthatják a 3070-eket a kereskedők.. (Jóhogy nem 2080 Ti -re árazzák be, mert teljesítményben ott van, és nehogymá. Mint mikor tökugyanaz az ingatlan 10 év múlva a duplájába kerül. Magyarország jobban teljesít.) :D
Látom máris beindult a onmeggyozes :)
Nem korai még, elvégre kártyád sincsen? ;Đ
Bocs.
BTW, szép cherry picking, AA is van a gameken? :)
Linkeljek képeket, milyen amikor elfogy a 8GB, vagy segít a google? :)
No mindegy, nem bántásból, jó hogy sok játéknak elég a 10GB most, de nem is volt ez kérdés. Amennyi új játékkal játszok, elég nekem a 6GB is. Aztán mégis 6800XTre pályázok.
Nem cherry picking, hanem ezek voltak a topikban. Also minek gyozogessem magam amikor eddig se volt bennem ketseg, hogy 1440pre nem lesz keves a 10GB. Ha meg igen akkor nagyon sokan meg fogjak szopni a 8/10gbos kartyakkal es lehet rohogni a sok nvidia kartya tulajon.
Szimplan rohejesnek tartom, hogy mindenki azon van kiakadva mennyire keves az a 10gb es lassan mar ott tartunk, hogy az az alapvetes, hogy 10gb vrammal MINDEN jatszhatatlan lesz. 1440pben is. Tobb VRAM jobb ez egyertelmu, de azert remelem nem azt szeretnetek nekem beadni, hogy a 10gb mindenre keves lesz. :D
Abban van valami, hogy genváltás lesz, és lehet, hogy kicsit megbolygatja a hardverigényt PC részről, hiszen a konzolok jóval több memóriából gazdálkodhatnak a jövőben, mint jelenleg, de még ez sem jelenti azt, hogy drasztikusan túllépik a jelenlegi VRAM használatot, viszont nem is kizárt. De valószínűleg 10Gb eléglesz még egy ideig.
(Kivéve RE-ket azoknak 12 kell, de na. Aki maxon akarja játszani annak ott a 3090 :D)
Ez egy összetett kérdés. A múltkoriban volt egy ellemző videó a Digital Foundry-n, ahol elég feltűnő volt, hogy a játékok szinte mind arra törekedtek, hogy 1440p-ben ne csússzanak 6GB, 4K felett pedig 10GB VRAM használat fölé. A másik meglepő az volt, hogy arra is ne menjen a ram használat 12GB fölé. Nyilván ennek köze van a pár éve kitört brutális VRAM és RAM áremelésekhez, meg ahhoz, hogy pár látványelemet leszámítva alig fejlődött* a grafika nevezett áremelkedések, meg a proci teljesítmény fejlődésének lassulása miatt.
(*Tegnap csodálkoztam rá a Son of Rome-ra ami 2013-as(!) játék, hogy mikén néz ki tesztben egy RTX 3090 kártyán. Elég kemény, annak ellenére is, hogy a nyilvánvalóan konzolos korlátozások miatta a fák eléggé papírmasé kinézetüek.)
Másrészt ott van az, amire az AMD hivatkozott a csóró 4GB-os Fiji kártyáknál, hogy a VRAM-ban lévő adatt nagyobbik része szemét, csak a fejlesztők lusták megoldani annak takarítását.
Aztán ott van, hogy az RX6000 bejelentésekor a DirectRam lényegét az adta, hogy most már a teljes memóriát tudja címezni, de eddig is létezett, csak kb. a VRAM 1/8-ad részét, annak fix helyét tudta címezni. Így a fejlesztőknek törekednie kellett minimalizálásokra, hogy a még piacon lévő 1-2GB-os csodákon is megmozduljanak a fejlesztéseik. Az Unreal Engine-ben, engem meglepő módon a Streaming Pool mérete 200 és 400Mbyte méretű, e fölött már komoly gondjai akadnak a nem aktuális csúcs vason.
Csak arra akartam kilukadni, hogy a fejlesztéseknek eddig eléggé útját álta a RAM és VRAM árának alakulása, meg a piacon lévő kártyák hiányosságai, kérdés ha ezeket "elfújja a szél", akkor a várható nextgen játékokban mennyire merik elengedni a kantárszárat.
Nem volt olyan régen mikor az volt a téma, hogy a 4GB csak a 4K alá kell, hogy 1GB mindenre is elég a kártyán 1080p alatt. Most meg már jó ideje nem.
ez a dlls és hasonlók vajon működének különálló hardverként is? tehát vesz az ember 5ezer forintért egy ilyet, rádugja az ősrégi videókártyájára és 4k-ban játszik :)
tévékben egy ideje van ilyen ai upscale, de ha jól értem ez a dlss komolyabb cucc, és hát láttuk hogy akár 480pből is csinál szép fullhd-t...
meg hát ügye a videokártya gyártóknak nem érdeke hogy nagyon tolják ezt, mert a saját üzletüket rontanák :D lehet hogy már évek óta tudnak ilyet, csak nem dobták piacra, nem rakták bele a kártyákba? :)
Nem pusztán a sz*r képből csinál HD vagy 4k képet, mint régi gagyi krimiben ahol vhs képből kinagyítanak ott nem is létező részeket. Szerintem a geometriai adatokat is használják hozzá.
Komplikato írta: Nem pusztán a sz*r képből csinál HD vagy 4k képet, mint régi gagyi krimiben ahol vhs képből kinagyítanak ott nem is létező részeket. Szerintem a geometriai adatokat is használják hozzá.
ja, hát ez lehet. de az biztos hogy fejlettebb AI-val a mostani AI upscale módszerek is javíthatók. ha nem is 480p-ről fullhd-re, de tuti hogy jókat ki lehet hozni ebből.
Alacsony felbontású képből és "motion vector"-ból készít nagyobb képet, amit aztán egy 16k-s renderhez hasonlít.
During the training process, the output image is compared to an offline rendered, ultra-high quality 16K reference image, and the difference is communicated back into the network so that it can continue to learn and improve its results. This process is repeated tens of thousands of times on the supercomputer until the network reliably outputs high quality, high resolution images.
Ezután bekerül a Game Ready Driver-be. Szóval nem a semmiből húzza elő a magasabb felbontást, ezért támogatja egyelőre kevés játék. Nem egy rossz dolog, mindenesetre. Remélem hamarosan AMD is előrukkol valami hasonlóval, nehogy ez az nV oldalára billentse nálam a mérleget. =D
Ha a tök fölösleges rongyrázást - early adopterséget - érzelmi dolgokat elfelejtjük, szerintem jelenleg egy darab észszerű döntés van: megvárni, hogy milyen az AMD RT és DLSS megoldása, és az alapján dönteni.
Addigra legalább az árak is normalizálódnak valószínűleg.
Chief Exorcist
Dehat addigra mar jon majd az ampere refresh es ne feledkezzunk el az RDNA3rol ami lehet koveti azt par honapra kiforrottabb techel. Akinek van stock, az nyert. Ennyire egyszeru. :D Az emberek donto tobbsegenek ezek a kartyak mar overkill kategoriat kepezik. Kevesen 1440pznek, meg kevesebben 4kznak. 1080pre meg egy 6800 is hatalmas tulzas. Akkora kulonbseg most halistennek nem is lesz teljesitmenyben szoval ha AMD lesz elerheto hamarabb es azt vesz az ember azzal se jar rosszul. Ha nvidiat kap elobb akkor azzal se jar rosszul semmikeppen. Ezer eve nem volt ilyen, de most tenyleg leginkabb arrol szol a fama, hogy mit lehet kapni es mit nem.
Én is megvárom a teszteket, mert ezúttal mindkét brand tudja már a RT-et. Szerintem az AMD-nek nem lesz DLSS megoldása mármint direkt AI alapú felskálázás, ami ad egy FPS boostot némi image qualityért cserébe. Mondjuk jól hangzik főleg a kártya használati ciklusának vége felé, de ugye külön támogatást igényel.
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
Tuti lesz valami DLSS-féle dolog, és úgy tűnik univerzális / open cucc, lásd a tweet amit tegnap linkeltem.
Másrészt meg most felkerült egy cikk az Xbox oldalára, ahol részletezik az RDNA 2 feature-öket, és ott:
"innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such asML powered super resolution "
Sanszosan ez szoftveresen fut majd a GPU-n, kihasználva az INT8 meg egyéb számítási lehetőségeket (mert hardveres cuccról mint a Tensor core nem tudunk), de valamit főznek, az tuti :)
Chief Exorcist
Úgy tűnik lemaradtam erről a részről, szóval akkor, a DLSS-nek is lesz AMD-s megfelelője. Kérdés a minőség és a sebesség, ami a független tesztekből kiderül hamarosan remélhetőleg.
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
Kérdés ki van felkészülve technikailag képminőséget tesztelni?:)
Hihetelen egyébként hogy itthon csak februárra lehet ps5öt rendelni:S
Youtube: Csöpi plays - https://goo.gl/pp4Ldr
van ahol márciust írnak. :D
lehet csatlakozom a zombitömeghez megrohamozva egy media markt-ot majd megjelenéskor :D
"People think that I must be a very strange person. This is not correct. I have the heart of a small boy. It is in a glass jar on my desk."
- Stephen King
Kb. annyira lehet számítani, hogy jó, vagy nem jó a képminőség. Kb. mint a DLSS1-nél a legtöbb teszter szerint nem volt nagy eresztés, a DLSS2 a legtöbb teszter szerint már jóval jobb lett.
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
Hát 10 percig nem tartott ki a 3070....
1-2 darab ugyan felkerült az apróra felülárazva, de szerintem az országba 200 darab se érkezett összesen...
Most is van fent kettő eladó.
500 dolláros MSRP-re 240.000 HUF árazás. Lassan ideje lenne csóri forintnak kimúlnia, követve a jugo dinár sorsát. Ha itthon is minden euróban lesz fizetve, akkor próbáljanak a hazai boltosok arcoskodni.
Kib. nevetséges és bosszantó is.
Aqua-nal amúgy 3070-ből 5db-nál több van raktáron. Listaára: 356.999. Ehelyett 349.990-ért adják.
Szédült Simon mondta a cukrásznak a vásáron:
Ide a sütikkel, vagy átkúrom a fejed a palánkon.
When people get too chummy with me I like to call them by the wrong name to let them know I don't really care about them. - Ron Swanson
Az 951.6 eurós ár. Annyiért ugye szomszédos országokban 3080 at árulnak.
Prémium kategóriás 3080-akat.
Vicc kategória.
Szédült Simon mondta a cukrásznak a vásáron:
Ide a sütikkel, vagy átkúrom a fejed a palánkon.
When people get too chummy with me I like to call them by the wrong name to let them know I don't really care about them. - Ron Swanson
Ennyiért egyelőre nyugodtan megtarthatják a 3070-eket a kereskedők.. (Jóhogy nem 2080 Ti -re árazzák be, mert teljesítményben ott van, és nehogymá. Mint mikor tökugyanaz az ingatlan 10 év múlva a duplájába kerül. Magyarország jobban teljesít.) :D
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
Most latom, hogy az uj afterburner ir "GPU Dedicated Memory Usage"-t. Paran ossze is dobtak mar par adatot, hogy mi mennyit eszik.
Kell a 16GB VRAM mindenkepp es a 10GB mar semmire se eleg. :D
Törölgetik is szorgosan az 1-es értékeléseket és megjelent egy csomó 5-ös...
Ezek olyan current gen gamok, amiknél olyan konzolok a baseline, ahol 6GB elérhető RAM van CPU+GPU összesen.
Gondolom egy 300-400k-s VGA-nál nem hátrány, ha kicsit jövőtálló, főleg így a konzolos generációváltásnál.
Chief Exorcist
Látom máris beindult a onmeggyozes :)
Nem korai még, elvégre kártyád sincsen? ;Đ
Bocs.
BTW, szép cherry picking, AA is van a gameken? :)
Linkeljek képeket, milyen amikor elfogy a 8GB, vagy segít a google? :)
No mindegy, nem bántásból, jó hogy sok játéknak elég a 10GB most, de nem is volt ez kérdés. Amennyi új játékkal játszok, elég nekem a 6GB is. Aztán mégis 6800XTre pályázok.
Nem cherry picking, hanem ezek voltak a topikban. Also minek gyozogessem magam amikor eddig se volt bennem ketseg, hogy 1440pre nem lesz keves a 10GB. Ha meg igen akkor nagyon sokan meg fogjak szopni a 8/10gbos kartyakkal es lehet rohogni a sok nvidia kartya tulajon.
Szimplan rohejesnek tartom, hogy mindenki azon van kiakadva mennyire keves az a 10gb es lassan mar ott tartunk, hogy az az alapvetes, hogy 10gb vrammal MINDEN jatszhatatlan lesz. 1440pben is. Tobb VRAM jobb ez egyertelmu, de azert remelem nem azt szeretnetek nekem beadni, hogy a 10gb mindenre keves lesz. :D
Jah az androidos mobilokat is szidták h minek bele 1gb ram aztán kiderült, hogy 4gb vagy felett már egész tűrhető lett az élmény
Abban van valami, hogy genváltás lesz, és lehet, hogy kicsit megbolygatja a hardverigényt PC részről, hiszen a konzolok jóval több memóriából gazdálkodhatnak a jövőben, mint jelenleg, de még ez sem jelenti azt, hogy drasztikusan túllépik a jelenlegi VRAM használatot, viszont nem is kizárt. De valószínűleg 10Gb eléglesz még egy ideig.
(Kivéve RE-ket azoknak 12 kell, de na. Aki maxon akarja játszani annak ott a 3090 :D)
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
rwurl=https://i.redd.it/hh7t25h938w51.png
Höhööhööhöö :D
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
Ez egy összetett kérdés. A múltkoriban volt egy ellemző videó a Digital Foundry-n, ahol elég feltűnő volt, hogy a játékok szinte mind arra törekedtek, hogy 1440p-ben ne csússzanak 6GB, 4K felett pedig 10GB VRAM használat fölé. A másik meglepő az volt, hogy arra is ne menjen a ram használat 12GB fölé. Nyilván ennek köze van a pár éve kitört brutális VRAM és RAM áremelésekhez, meg ahhoz, hogy pár látványelemet leszámítva alig fejlődött* a grafika nevezett áremelkedések, meg a proci teljesítmény fejlődésének lassulása miatt.
(*Tegnap csodálkoztam rá a Son of Rome-ra ami 2013-as(!) játék, hogy mikén néz ki tesztben egy RTX 3090 kártyán. Elég kemény, annak ellenére is, hogy a nyilvánvalóan konzolos korlátozások miatta a fák eléggé papírmasé kinézetüek.)
Másrészt ott van az, amire az AMD hivatkozott a csóró 4GB-os Fiji kártyáknál, hogy a VRAM-ban lévő adatt nagyobbik része szemét, csak a fejlesztők lusták megoldani annak takarítását.
Aztán ott van, hogy az RX6000 bejelentésekor a DirectRam lényegét az adta, hogy most már a teljes memóriát tudja címezni, de eddig is létezett, csak kb. a VRAM 1/8-ad részét, annak fix helyét tudta címezni. Így a fejlesztőknek törekednie kellett minimalizálásokra, hogy a még piacon lévő 1-2GB-os csodákon is megmozduljanak a fejlesztéseik. Az Unreal Engine-ben, engem meglepő módon a Streaming Pool mérete 200 és 400Mbyte méretű, e fölött már komoly gondjai akadnak a nem aktuális csúcs vason.
Csak arra akartam kilukadni, hogy a fejlesztéseknek eddig eléggé útját álta a RAM és VRAM árának alakulása, meg a piacon lévő kártyák hiányosságai, kérdés ha ezeket "elfújja a szél", akkor a várható nextgen játékokban mennyire merik elengedni a kantárszárat.
Nem volt olyan régen mikor az volt a téma, hogy a 4GB csak a 4K alá kell, hogy 1GB mindenre is elég a kártyán 1080p alatt. Most meg már jó ideje nem.
ez a dlls és hasonlók vajon működének különálló hardverként is? tehát vesz az ember 5ezer forintért egy ilyet, rádugja az ősrégi videókártyájára és 4k-ban játszik :)
tévékben egy ideje van ilyen ai upscale, de ha jól értem ez a dlss komolyabb cucc, és hát láttuk hogy akár 480pből is csinál szép fullhd-t...
meg hát ügye a videokártya gyártóknak nem érdeke hogy nagyon tolják ezt, mert a saját üzletüket rontanák :D lehet hogy már évek óta tudnak ilyet, csak nem dobták piacra, nem rakták bele a kártyákba? :)
Nem pusztán a sz*r képből csinál HD vagy 4k képet, mint régi gagyi krimiben ahol vhs képből kinagyítanak ott nem is létező részeket. Szerintem a geometriai adatokat is használják hozzá.
ja, hát ez lehet. de az biztos hogy fejlettebb AI-val a mostani AI upscale módszerek is javíthatók. ha nem is 480p-ről fullhd-re, de tuti hogy jókat ki lehet hozni ebből.
Alacsony felbontású képből és "motion vector"-ból készít nagyobb képet, amit aztán egy 16k-s renderhez hasonlít.
Ezután bekerül a Game Ready Driver-be. Szóval nem a semmiből húzza elő a magasabb felbontást, ezért támogatja egyelőre kevés játék. Nem egy rossz dolog, mindenesetre. Remélem hamarosan AMD is előrukkol valami hasonlóval, nehogy ez az nV oldalára billentse nálam a mérleget. =D
Itt van az nVidia saját irománya a témáról.