Gyűlnek a tapasztalatok, ahogy az eNberek swappolják be az új DLSS4 .dll-jét más játékokba, és úgy látszik tényleg valid lehet, hogy a transformers modellel a 4K de még az 1440p Ultra Performance is hozza a korábbi Quality minőséget, ami naaaaaagyon durva. Merthogy a korábbi Quality meg sztem gyakorlatilag megkülönböztethetetlen, vagy még jobb is volt, mint a natív sok esetben. Ráadásul jövő héten jön elvileg űj driver, ami azt a pár fps-es teljesítmény penalty-t is tovább csökkenti - ami nyilván eleve jelentéktelen, ahhoz képest, amennyit nyersz.
A transformers Quality meg gyakorlatilag átlényelgült DLAA-vá minőségben XD
És ebből minden kártya profitál a 2xxx-szériáig visszamenően. Sok millió kártya kapott most még egy new lease on life-ot sztem. Na, ezzel az AMD nem tud versenyezni.
Bár nyilván a VRAM hamarosan úgyis szűk keresztmetszet lesz a 8 gigás kártyáknál.
Gondolom pont ezért pumpolják csak a high-end kártyákat 12 gigánál több VRAM-mal. Lehet itt bűvészkedni dlss meg mittomén, de ha kevés a VRAM, akkor b*szhatod, igenis vegyél új kártyát.
120 FPS-t akarsz elérni gyengébb kártyával. Vagyis, ha a játék nálad alapon pl 30-40-60 FPS-sel fut, mennyivel nő a latency, ha bekacsolod a frame gent, hogy 120 FPS - t láss a monitoron.
A felső grafikonon meg az látszik, hogy a valós, raszter FPS-t mennyivel csökkenti ha bekapcsolod a FG-t (sötétkék értékek a valós FPS).
Szerintem a többszörös framegen alacsonyabb induló FPS-ről inkább olyan játékban lehet jó, ahol nem annyira számít a latency.
Magasabb FPS-ről indulva gondolom a latency is jobb, az meg annak jöhet jól, aki ki akarja használni a 400Hz-es (vagy a fene tudja hol tartanak már) monitorát.
(csak a kép alapján)
Van egy konkrét mérés, amiből nekem az látszik, hogy a frame gen nem befolyásolja számottevően* a latency-t.
Miért kell ezek után az fps-hez arányítani?
Egy alacsonyabb fps mellett megint lesz egy adott alap lag, amit aztán a frame gen megint nem fog számottevően befolyásolni.
Nem értem a következtetést. Lehet, valamit félreértek.
* Másfélszeresére nő. Ez lehet vita tárgya, hogy sok, vagy nem.
Az egész lényege, hogy ha van sok FPS-ed, amikor amúgy sem lenne lényeges, hogy még több legyen, akkor kb. minimálisan észrevehető a FG latencyje, de ha akkor használnád, amikor tényleg szükséges lenne (vagyis ha alapból nem tudsz pl. 30-40-60 raszter FPS-től többet kipréselni a kártyából - pl. 5070 majd, amit úgy reklámoztak, hogy olyan erős, mint a 4090? ), akkor pont kb. használhatatlan (lesz), mert akkora lesz a latency, hogy télen nem csúszik úgy a jeges út, mint az egered fog :D
A nagyon magas képfrissítésű monitort tudod kik használják ki? Competitive FPS-t tolók. Oda meg az FG alapból halott ötlet, mert oda nem FPS kell, hanem lehetőleg 0 latency (ja, ez nem lehetséges, csak a cél ez lenne). Minél magasabb a nyers FPS, annál alacsonyabb a késleltetés, így az, hogy 400 FPS-ed van, csak egy mellékterméke a valós célnak, az alacsony késleltetésnek.
Alacsony raszter FPS = nagy latency. Alacsony raszter FPS + FG = sok FPS, de kurva nagy latency.
De igen, ezt Te tudod. Az emberek 80%-a meg nem. Emiatt egyáltalán nem felesleges az arányítós grafikon, mert annak a 80%-nak egyszerűen annyit mond a FG, hogy ingyen FPS, és varázsütésre milyen jó lesz minden, technikailag benyalva az Nvidia blablát.
Messze nem vagyok tájékozott. Sőt. Lehet, ez okozza a zavart nálam, hogy nem vagyok tisztában azzal, hogy a latency pontosan miből adódik. Egyedül az fps-től függ, és egyenes arányban van vele?
Amit ki tudsz íratni a képernyőre, ott technikailag ami latency-t kiírva látsz, az azt jelenti, hogy egy képet mennyi idő alatt renderel le a kártya. Minél alacsonyabb az FPS, annál magasabb a latency így, hiszen amiatt tud kevesebb képkockát megjeleníteni másodpercenként, mert több idő, mire kiszámol egy képkockát. Ez a releváns ebből a szempontból.
Viszont csak érdekességképp: az összes latency, vagyis amíg egy képkockára reagálsz te, mint user, és inputot adsz a programnak (pl. látod a képkockán, hogy nincs a célkereszt az ember fején, emiatt megmozdítod az egeret, és utána jön a monitortól / újabb renderelt képkockától a szemedbe a visszajelzés, hogy már a fején van a célkereszt az akciód miatt), az sok mindenből tevődik össze, a zárójeles példából sorrendben:
0) GPU renderel egy képkockát
1) monitor megjeleníti a képkockát (megjelenítési késleltetés, pontosabban a pixelek színének változásának késleltetése adott monitornál)
2) emberi reakció, a fény / kép az agyban feldolgozásra kerül
3) egér /billentyűzet beviteli késleltetése
4) GPU renderel egy újabb képkockát
5) monitor megjeleníti a renderelt képkockát
... és így tovább
Vagyis a renderelt képkocka + input latency + monitor latency ami a teljes interaktivitási késleltetést adja.
Ez miért lényeges?
Gamepadeknél nem annyira észlelhető a késleltetés, így a FG sem, mivel nem precíziós eszközök, eleve nagyobb az input, vagyis beviteli késleltetés gamepadeknél, de SOKKAL. Egérrel vezérelve már sokkal durvább tud lenni, ha az input és a megjelenített kép közt idő telik el.
Asy majd bővebben kifejti, de igen, nagyban függ az FPS-től, de vannak más tényezők is. Erre találta ki az Nvidia a Reflex nevű technológiát (az AMD-nek is van ilyen, csak elfelejtettem a nevét), amivel más módon csökkenthető az input latency, és maga a Frame Generation minden esetben a Reflexszel együtt működik.
Taktikai Konzerv írta:
De pl. 60-ról felmenni 120-ra, 180-ra vagy akár 240-re az még kábé beleférhet latencyben is, és azért az már nem mindegy
Ezzel az a gond, hogy ha mindent felkapcsolsz 4K-n, akkor még egy 5090-en sincs meg a natív 60FPS. De van ahol még a 40 se. És akkor a többi gyengébb VGA-ról nem is volt szó.
Kína a legnagyobb troll. Bekamuzták hogy itt a hátsó kertben 2 hét alatt feltréningeztek egy ChatGPT szintű AI-t, aztán instant eltűnt 500 milliárd dollár az amerikai tőzsdéről xD
Később aztán beadta a derekát, a Pentium 3-aknál már megbontotta.
Meg tisztán emlékszem, mikor az athlonok lealázták az intelt, akkor egy kicsit azokkal is mókolt.
Gyűlnek a tapasztalatok, ahogy az eNberek swappolják be az új DLSS4 .dll-jét más játékokba, és úgy látszik tényleg valid lehet, hogy a transformers modellel a 4K de még az 1440p Ultra Performance is hozza a korábbi Quality minőséget, ami naaaaaagyon durva. Merthogy a korábbi Quality meg sztem gyakorlatilag megkülönböztethetetlen, vagy még jobb is volt, mint a natív sok esetben. Ráadásul jövő héten jön elvileg űj driver, ami azt a pár fps-es teljesítmény penalty-t is tovább csökkenti - ami nyilván eleve jelentéktelen, ahhoz képest, amennyit nyersz.
A transformers Quality meg gyakorlatilag átlényelgült DLAA-vá minőségben XD
Chief Exorcist
És ebből minden kártya profitál a 2xxx-szériáig visszamenően. Sok millió kártya kapott most még egy new lease on life-ot sztem. Na, ezzel az AMD nem tud versenyezni.
Bár nyilván a VRAM hamarosan úgyis szűk keresztmetszet lesz a 8 gigás kártyáknál.
Chief Exorcist
Pont ezt akartam írni, hogy 8GB (lassan 12GB is...) vram a szűk keresztmetszet. Azon meg nem (sokat) segít a DLSS.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Meanwhile én az 5700XTvel :D
Everyone wants to shine like a diamond, but no one want to get cut
Gondolom pont ezért pumpolják csak a high-end kártyákat 12 gigánál több VRAM-mal. Lehet itt bűvészkedni dlss meg mittomén, de ha kevés a VRAM, akkor b*szhatod, igenis vegyél új kártyát.
Nem tévedsz sztem, nyilván ezzel is terel az Nvidia a drágább karik felé, hogy cigánykodik VRAM-mal az olcsóbb stuffoknál :))
Chief Exorcist
DLSS FG latencyre reflektálva:
rwurl=https://imgur.com/4NDlGOQ
Azért a 120FPS-re levetített, valós latency elég szarul néz ki :D
"Aztakibebaszott eget, lett egy matchem Tinderen"
Ennek mi értelme?
120 FPS-t akarsz elérni gyengébb kártyával. Vagyis, ha a játék nálad alapon pl 30-40-60 FPS-sel fut, mennyivel nő a latency, ha bekacsolod a frame gent, hogy 120 FPS - t láss a monitoron.
A felső grafikonon meg az látszik, hogy a valós, raszter FPS-t mennyivel csökkenti ha bekapcsolod a FG-t (sötétkék értékek a valós FPS).
"Aztakibebaszott eget, lett egy matchem Tinderen"
Szerintem a többszörös framegen alacsonyabb induló FPS-ről inkább olyan játékban lehet jó, ahol nem annyira számít a latency.
Magasabb FPS-ről indulva gondolom a latency is jobb, az meg annak jöhet jól, aki ki akarja használni a 400Hz-es (vagy a fene tudja hol tartanak már) monitorát.
Chief Exorcist
(csak a kép alapján)
Van egy konkrét mérés, amiből nekem az látszik, hogy a frame gen nem befolyásolja számottevően* a latency-t.
Miért kell ezek után az fps-hez arányítani?
Egy alacsonyabb fps mellett megint lesz egy adott alap lag, amit aztán a frame gen megint nem fog számottevően befolyásolni.
Nem értem a következtetést. Lehet, valamit félreértek.
* Másfélszeresére nő. Ez lehet vita tárgya, hogy sok, vagy nem.
azt a részét én se egészen értem tbf
Chief Exorcist
Az egész lényege, hogy ha van sok FPS-ed, amikor amúgy sem lenne lényeges, hogy még több legyen, akkor kb. minimálisan észrevehető a FG latencyje, de ha akkor használnád, amikor tényleg szükséges lenne (vagyis ha alapból nem tudsz pl. 30-40-60 raszter FPS-től többet kipréselni a kártyából - pl. 5070 majd, amit úgy reklámoztak, hogy olyan erős, mint a 4090? ), akkor pont kb. használhatatlan (lesz), mert akkora lesz a latency, hogy télen nem csúszik úgy a jeges út, mint az egered fog :D
A nagyon magas képfrissítésű monitort tudod kik használják ki? Competitive FPS-t tolók. Oda meg az FG alapból halott ötlet, mert oda nem FPS kell, hanem lehetőleg 0 latency (ja, ez nem lehetséges, csak a cél ez lenne). Minél magasabb a nyers FPS, annál alacsonyabb a késleltetés, így az, hogy 400 FPS-ed van, csak egy mellékterméke a valós célnak, az alacsony késleltetésnek.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Végülis ezt írtam, úgyhogy nagyjából sikerült felfogni a grafikont mégis ezek szerint :D
De pl. 60-ról felmenni 120-ra, 180-ra vagy akár 240-re az még kábé beleférhet latencyben is, és azért az már nem mindegy
Chief Exorcist
Viszont nézd meg a videót is, mert raszter = 60 FPS-nél nagyon szemmel láthatók az artifactok.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Fuhh most arra nincs érkezésem, de azt nem a DLSS Performance + FG kombója hozza össze? Vagy ez DLSS Quality mellett is jelentkezik?
Chief Exorcist
Jelentkezik mindenhogy, a felskálázás tipikusan más jellegű képhibákat tudna okozni, és látszik, hogy ez nem upscale-ből fakad.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Erre viszont tök felesleges ez az arányítós graf. szvsz
Ha szar az alap fps, akkor nagy a lag, és ezen nem segít a frame gen.
Alacsony raszter FPS = nagy latency. Alacsony raszter FPS + FG = sok FPS, de kurva nagy latency.
De igen, ezt Te tudod. Az emberek 80%-a meg nem. Emiatt egyáltalán nem felesleges az arányítós grafikon, mert annak a 80%-nak egyszerűen annyit mond a FG, hogy ingyen FPS, és varázsütésre milyen jó lesz minden, technikailag benyalva az Nvidia blablát.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Messze nem vagyok tájékozott. Sőt. Lehet, ez okozza a zavart nálam, hogy nem vagyok tisztában azzal, hogy a latency pontosan miből adódik. Egyedül az fps-től függ, és egyenes arányban van vele?
Amit ki tudsz íratni a képernyőre, ott technikailag ami latency-t kiírva látsz, az azt jelenti, hogy egy képet mennyi idő alatt renderel le a kártya. Minél alacsonyabb az FPS, annál magasabb a latency így, hiszen amiatt tud kevesebb képkockát megjeleníteni másodpercenként, mert több idő, mire kiszámol egy képkockát. Ez a releváns ebből a szempontból.
Viszont csak érdekességképp: az összes latency, vagyis amíg egy képkockára reagálsz te, mint user, és inputot adsz a programnak (pl. látod a képkockán, hogy nincs a célkereszt az ember fején, emiatt megmozdítod az egeret, és utána jön a monitortól / újabb renderelt képkockától a szemedbe a visszajelzés, hogy már a fején van a célkereszt az akciód miatt), az sok mindenből tevődik össze, a zárójeles példából sorrendben:
0) GPU renderel egy képkockát
1) monitor megjeleníti a képkockát (megjelenítési késleltetés, pontosabban a pixelek színének változásának késleltetése adott monitornál)
2) emberi reakció, a fény / kép az agyban feldolgozásra kerül
3) egér /billentyűzet beviteli késleltetése
4) GPU renderel egy újabb képkockát
5) monitor megjeleníti a renderelt képkockát
... és így tovább
Vagyis a renderelt képkocka + input latency + monitor latency ami a teljes interaktivitási késleltetést adja.
Ez miért lényeges?
Gamepadeknél nem annyira észlelhető a késleltetés, így a FG sem, mivel nem precíziós eszközök, eleve nagyobb az input, vagyis beviteli késleltetés gamepadeknél, de SOKKAL. Egérrel vezérelve már sokkal durvább tud lenni, ha az input és a megjelenített kép közt idő telik el.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Asy majd bővebben kifejti, de igen, nagyban függ az FPS-től, de vannak más tényezők is. Erre találta ki az Nvidia a Reflex nevű technológiát (az AMD-nek is van ilyen, csak elfelejtettem a nevét), amivel más módon csökkenthető az input latency, és maga a Frame Generation minden esetben a Reflexszel együtt működik.
https://www.nvidia.com/en-eu/geforce/technologies/reflex/
edit: múlt idő, Asy már kifejtette :D
Chief Exorcist
Sebaj, ha már 10 éve "majd jövőre már a Radeon éve lesz", néhány pár év még belefér.
AMD's next-gen flagship UDNA Radeon GPU won't be as powerful as the GeForce RTX 5090
https://www.tweaktown.com/news/102811/amds-next-gen-flagship-udna-radeon...
Chief Exorcist
Ezzel az a gond, hogy ha mindent felkapcsolsz 4K-n, akkor még egy 5090-en sincs meg a natív 60FPS. De van ahol még a 40 se. És akkor a többi gyengébb VGA-ról nem is volt szó.
Indul az AI háború? :)
https://www.cnbctv18.com/technology/deepseek-ai-large-scale-cyberattack-...
https://www.ndtv.com/world-news/chinas-ai-startup-deepseek-hit-by-large-...
https://www.business-standard.com/world-news/deepseek-limits-signups-for...
Eközben 20125.01.24-e óta...
rwurl=https://i.kek.sh/TCeZSvkknMW.jpg
Kína a legnagyobb troll. Bekamuzták hogy itt a hátsó kertben 2 hét alatt feltréningeztek egy ChatGPT szintű AI-t, aztán instant eltűnt 500 milliárd dollár az amerikai tőzsdéről xD
Chief Exorcist
meg ennyit ér a korlátozás, hogy Kína ne kapjon csúcs hardvert AI fejlesztésre.
Korlátozás, hogy ne kapjon? Hát nála gyártják :D
bekamuzta?