Hozzászólások
Elsődleges fülek
JRPG Párizsban?
rwurl=https://www.youtube.com/watch?v=b6YNycptEzc
Sebaj, ha már 10 éve "majd jövőre már a Radeon éve lesz", néhány pár év még belefér.
AMD's next-gen flagship UDNA Radeon GPU won't be as powerful as the GeForce RTX 5090
https://www.tweaktown.com/news/102811/amds-next-gen-flagship-udna-radeon...
Első 25 percig jó volt :)
Viszont a "Készülő sorozatok, amiket basznék" sokkal jobb topikcím lenne.
Romolus sem?
ez az Alien borzalmasan gagyi. Mint minden Alien cucc a játékokon kívül a 4. rész óta :/
Na most toltam is vele másfél órát, és hihetetlen, hogy egy 15 éves játék grafikában és immerzióban még mindig milyen szinten van, pláne VR-ban. A dús növényzetben lapulva becserkészni a korcsikat zseniális feeling :D
Ezt mindig le akartam irni, és mindig elfelejtettem, de imádom a topic címében a "melyek" modorosságát xd
Asy majd bővebben kifejti, de igen, nagyban függ az FPS-től, de vannak más tényezők is. Erre találta ki az Nvidia a Reflex nevű technológiát (az AMD-nek is van ilyen, csak elfelejtettem a nevét), amivel más módon csökkenthető az input latency, és maga a Frame Generation minden esetben a Reflexszel együtt működik.
https://www.nvidia.com/en-eu/geforce/technologies/reflex/
edit: múlt idő, Asy már kifejtette :D
Amit ki tudsz íratni a képernyőre, ott technikailag ami latency-t kiírva látsz, az azt jelenti, hogy egy képet mennyi idő alatt renderel le a kártya. Minél alacsonyabb az FPS, annál magasabb a latency így, hiszen amiatt tud kevesebb képkockát megjeleníteni másodpercenként, mert több idő, mire kiszámol egy képkockát. Ez a releváns ebből a szempontból.
Viszont csak érdekességképp: az összes latency, vagyis amíg egy képkockára reagálsz te, mint user, és inputot adsz a programnak (pl. látod a képkockán, hogy nincs a célkereszt az ember fején, emiatt megmozdítod az egeret, és utána jön a monitortól / újabb renderelt képkockától a szemedbe a visszajelzés, hogy már a fején van a célkereszt az akciód miatt), az sok mindenből tevődik össze, a zárójeles példából sorrendben:
0) GPU renderel egy képkockát
1) monitor megjeleníti a képkockát (megjelenítési késleltetés, pontosabban a pixelek színének változásának késleltetése adott monitornál)
2) emberi reakció, a fény / kép az agyban feldolgozásra kerül
3) egér /billentyűzet beviteli késleltetése
4) GPU renderel egy újabb képkockát
5) monitor megjeleníti a renderelt képkockát
... és így tovább
Vagyis a renderelt képkocka + input latency + monitor latency ami a teljes interaktivitási késleltetést adja.
Ez miért lényeges?
Gamepadeknél nem annyira észlelhető a késleltetés, így a FG sem, mivel nem precíziós eszközök, eleve nagyobb az input, vagyis beviteli késleltetés gamepadeknél, de SOKKAL. Egérrel vezérelve már sokkal durvább tud lenni, ha az input és a megjelenített kép közt idő telik el.
vsz, van adblokkolós yt app is androidra, nem tudom. Én prémiumos paraszt vagyok. :-D
Messze nem vagyok tájékozott. Sőt. Lehet, ez okozza a zavart nálam, hogy nem vagyok tisztában azzal, hogy a latency pontosan miből adódik. Egyedül az fps-től függ, és egyenes arányban van vele?
Igen, ha nem akarok 5 percenként reklámot nézni. Pl podcast
oké, de én telón szinte mindig a yt alkalmazást használom, vagy a facebook sajátját, ha olyan a videó és nem váltok át alkalmazásra.
Miért? Ti böngészőben nézitek yt-ot telón?
Alacsony raszter FPS = nagy latency. Alacsony raszter FPS + FG = sok FPS, de kurva nagy latency.
De igen, ezt Te tudod. Az emberek 80%-a meg nem. Emiatt egyáltalán nem felesleges az arányítós grafikon, mert annak a 80%-nak egyszerűen annyit mond a FG, hogy ingyen FPS, és varázsütésre milyen jó lesz minden, technikailag benyalva az Nvidia blablát.
is
meg browserben is lehet youtube-olni
brózer? youtube alkalmazásról van szó.
Erre viszont tök felesleges ez az arányítós graf. szvsz
Ha szar az alap fps, akkor nagy a lag, és ezen nem segít a frame gen.
Jelentkezik mindenhogy, a felskálázás tipikusan más jellegű képhibákat tudna okozni, és látszik, hogy ez nem upscale-ből fakad.
Fuhh most arra nincs érkezésem, de azt nem a DLSS Performance + FG kombója hozza össze? Vagy ez DLSS Quality mellett is jelentkezik?
Viszont nézd meg a videót is, mert raszter = 60 FPS-nél nagyon szemmel láthatók az artifactok.
Végülis ezt írtam, úgyhogy nagyjából sikerült felfogni a grafikont mégis ezek szerint :D
De pl. 60-ról felmenni 120-ra, 180-ra vagy akár 240-re az még kábé beleférhet latencyben is, és azért az már nem mindegy
Az, hogy nem krómot használsz, hanem olyat, ami eleve adblocker brózernek hirdeti magát.
Az egész lényege, hogy ha van sok FPS-ed, amikor amúgy sem lenne lényeges, hogy még több legyen, akkor kb. minimálisan észrevehető a FG latencyje, de ha akkor használnád, amikor tényleg szükséges lenne (vagyis ha alapból nem tudsz pl. 30-40-60 raszter FPS-től többet kipréselni a kártyából - pl. 5070 majd, amit úgy reklámoztak, hogy olyan erős, mint a 4090? ), akkor pont kb. használhatatlan (lesz), mert akkora lesz a latency, hogy télen nem csúszik úgy a jeges út, mint az egered fog :D
A nagyon magas képfrissítésű monitort tudod kik használják ki? Competitive FPS-t tolók. Oda meg az FG alapból halott ötlet, mert oda nem FPS kell, hanem lehetőleg 0 latency (ja, ez nem lehetséges, csak a cél ez lenne). Minél magasabb a nyers FPS, annál alacsonyabb a késleltetés, így az, hogy 400 FPS-ed van, csak egy mellékterméke a valós célnak, az alacsony késleltetésnek.
azt a részét én se egészen értem tbf
(csak a kép alapján)
Van egy konkrét mérés, amiből nekem az látszik, hogy a frame gen nem befolyásolja számottevően* a latency-t.
Miért kell ezek után az fps-hez arányítani?
Egy alacsonyabb fps mellett megint lesz egy adott alap lag, amit aztán a frame gen megint nem fog számottevően befolyásolni.
Nem értem a következtetést. Lehet, valamit félreértek.
* Másfélszeresére nő. Ez lehet vita tárgya, hogy sok, vagy nem.
Ezzel az a gond, hogy ha mindent felkapcsolsz 4K-n, akkor még egy 5090-en sincs meg a natív 60FPS. De van ahol még a 40 se. És akkor a többi gyengébb VGA-ról nem is volt szó.