Jelenlegi hely

PC-builder HQ

Utolsó bejegyzés


A mouse without borders arra jó, ha egyszerre használsz több pc-t. Amelyik géphez csatlakoztatva vannak az egér/billentyűzet, annak természetesen futnia kell. Nincs szükség kapcsolgatásra, egymás mellé/alá "teszi" a 2+ gép desktopját, és egyszerűen áthúzod az egeret, mint egy multi display rendszerben. Még dragndrop file átvitel féleség is van benne.
Egyébként egy hasznos, és jól működő dolog, viszont pl gaming közben érdemes kilőni, mert némi stuttert okoz tapasztalatom szerint.



Ahogy nézem, nagyon szépen javulnak az Intel kártyák teljesíteményei az új driverekkel. A második generációban akár már rendesen versenyképesek is lehetnek? (bizonyos szempontból persze most is azok)

Chief Exorcist



VRAM mennyiséget tekintve egészen biztos. Mondjuk nagyon hosszú út áll még az Intel előtt, hogy teljes nyugalommal vegyenek az emberek Intel GPU-t. Nagyon bizalmatlan vagyok velük szemben ha driverekről van szó, mert simán dönthetnek úgy a köv. gen kiadása után, hogy az előző genhez nem készítenek drivert tovább (ez igaz lehet a 3. gen, 4. gen ...stb kihozásakor is). Ez nem lenne ismeretlen a részükről, lásd az integrált cuccaikat.
Nekem a vesszőparipám, hogy a =< DX10 játékok nem, vagy csak rettenetesen gyengén működnek vele.

"Aztakibebaszott eget, lett egy matchem Tinderen"



Házilag kapott 16 GB VRAM-ot egy GeForce RTX 3070

https://prohardver.hu/hir/geforce_rtx_3070_hazilag_16_gb_vram.html

Chief Exorcist



Gondolkodom ia rajta, higy egy Hardveraprós tagos megkerdezek, hogy meg tudja-e csinálni, es mennyiért. Elég profi a tag, YT csatornája is van, látszik,hogy lelkiismeretesen és profin dolgozik.

"Aztakibebaszott eget, lett egy matchem Tinderen"



lol gondoltam is erre nemrég hogy mi lenne ha valaki nagyobb ram chipeket rakna rá. de csak kísérletnek jó, otthonra nem kéne. tök tudja mikor crashel meg milyen hülyeségeket csinál majd. driver, vga bios is rizikós lehet, meg kitudja mennyire lehet egyező ramokat használni mert jó ha a timing meg minden egyéb matchel. de ha nagyon érdekel lehet vele megtudod tárgyalni: https://www.youtube.com/@doktorvga
UI: hátha újra bejönne a divatba a bővíthető memóriás vga :D
rwurl=https://imgur.com/a/n9gtx3G



Igen, pont rá gondoltam!
Amúgy a teszt alapján egy hátránya van, hogy ha nincs Nvidia panelben beallitva, hogy mindig max teljesitmenyen menjen, akkor hajlamos a képernyő random besötétedni. Viszont egyszerű bios moddal szvsz megoldható,hogy a vram freki minimum pl. 1500 legyen (valószínű a min. freki miatt baszodik) de a gpu meg low ahogy gyárilag is.

Azért egy 16gb-os 3070-nel el lehet lenni meg bőven kb.3 évig, valószínű tovabb, mint egy 12gb-os 4070-nel :D

"Aztakibebaszott eget, lett egy matchem Tinderen"



most ha vennék valamit az lehet a 7900XT lenne. de jelenleg a CP2077 az egyetlen játékom ahol kéne még egy kis plusz az rtx3060 felett, de az meg ráér.



Na jó, ezek a mostani PC releasek az elmúlt pár hónapban most már tényleg kezdenek röhejessé válni :D
RTX4090 + AMD7800X3D, vagyis a ma elérhető legerősebb asztali PC.
- 1080p (vagyis 4K + FSR performance) 89 FPS
- 1080p, RT on: 55FPS
- 4K, kb. ugyanez az eredmény.

Mindeközben a GPU malmozik, a CPU meg félárbócön pörög.
Ráadásul ha be van kapcsolva az RT a menüben egy load után, akkor az valójában ki van kapcsolva, tehát ki kell kapcsolni, és újra be! GG!
Mi a retkes francokat csinálnak a fejlesztők?!

rwurl=https://www.youtube.com/watch?v=AQgYcK9seS0

Egy érdekesség a HSZ-ekből:
(UE4):
"It basically has to render an extra game world in low res and then merge the RT lighting into the final image.
So this game like Hogwarts Legacy kind basically double's its resoruce usage when RT is on."

Illetve:

"It just kept using up more and more VRAM too. I stopped the game and then relaunched it. The VRAM went from 20GB used to 8GB VRAM of use in the same area and once again it slowly started climbing. "

Tehát még Vmem leak is van benne! Feature, nem bug!

Az úgy noice :D

"Aztakibebaszott eget, lett egy matchem Tinderen"



Volt tervben véve gyártók által 16GB-os RTX3070, de ki lett lőve. Volt továbbá 20GB-os RTX 3080 is, azokat le is gyártották (MSI), de gyárból egyből a bányákba ment. Egy fórumon meg ruszki manus azzal menőzőtt, hogy szerzett ugyanilyen kártyából GigaByte ES verziót. Meg persze ott volt a Quadro A4000, ami egy underclockolt, TDP csökkentett (tehát lassabb) RTX3070 16GB rammal, cserébe tud pár extrát pl. ECC. A 20GB-os 3080 meg az A4500 kártyában manifesztálódott, ami a legjobb ár értékű profi kártya volt.



Újabb ilyen sztori, ezúttal RTX 3060 Ti ment 8 GB-ról 12 GB-ra. Csak most trükkösebb mint a másik, mert több módosítás kellett, és 128 bitesről 192 bites lett az adatsín.

https://ipon.hu/magazin/cikk/12-gb-ra-bovitettek-egy-8-gb-os-geforce-rtx...

Chief Exorcist



A tesztből szépen lejött, hogy azért az a 128 bites busz eléggé lassítja a kártyát.

Érdekesség, hogy valaki meg RX5600XT-t berhelte meg, 6GB-ról 12GB-ra bővítették. Így viszont a gyári frame puffer megduplázódik (ehhez szvsz elég lett volna drivert buherálni), ami majdnem duplázta a kártya teljesítményét. Alig lett volna lassabb a kisebbik 5700-hez képest, gondolom nem érte volna meg kiadni.



De ezek szerint akkor nem valid narratíva az, hogy az adastsin drága, és komplikálja a boardot meg satöbbi? Igazából marhára csak mesterségesen gimpelik a kártyákat az ilyen 128 bites buszokkal 😶

Mármint nyilván drágább valamennyivel, de hát ezek alapján, érted.

Chief Exorcist



Az a "valamennyivel" ha akár csak 1 USD extra ktsg is (amitől biztos, hogy több amúgy), akkor is ha eladnak pl. 100K-t belőle, akkor az pont 100.000 USD-al kevesebb profit.

BTW jön a Gollum game, és már most látszik, mennyire optimalizálatlan fos lesz az is. Ocsmány, és olyan gépigényt adtak ki, hogy sírni támad kedvem. Mert aszondja rtx4080 kell az ultra RT -hez 1080p-ben (vagyis 4k, csak épp ott van kisbetűvel, hogy with dlss performance) :D

"Aztakibebaszott eget, lett egy matchem Tinderen"



Akartam már írni, csak nem tudtam melyik topikba, de ha már feljött itt az ultra RT, akkor ide ...
Csinált valaki egy hosszú elemző videót a grafikai fejlődésről, techdemók, demók bemutatásával és magyarázatával. Ilyen van millió, eddig semmi érdekes. De.
Volt benne egy rész, egy azt hiszem olasz manus csinált egy Cyberpunk várost UE5.2 alá. És az volt a lényege, hogy megnézte NVidia féle RTX + Pahtracing megoldással (ez ugye a Raytracing Override a Cyberpunk 2077-ben, amitől még az RTX4090 is meghal) és megnézte Epic féle Lumen (Lumen + HW RT) megoldással is. Na és utóbbi SZEBB, de 3-4x gyorsabb. És ott azért eléggé ment az anyázás, hogy miért erőltetik a "saját" megoldásukat NVidia részéről, ha igazából a saját vasukon sem megy, de nem is hatékony.
És itt van az a kérdés, mennyire fogják ezt erőltetni a kész játékokba, úgy értve, hogy NVidia "szponzorálta" játékba be mernek e rakni korrekt HW Lumenes megoldást? Azaz láthatunk e bármit is a fentiekből játékban?



Egyértelmű igen a válasz, mivel a Lumen része az UE 5hnek, és valószínűleg sokkal könnyebb vele dolgozni a deveknek, mivel igazából nem is kell implementalni.
illetőleg user szinten is lenne felháborodás ha nem lument használnának ue5 alatt.

Ez olyen, mint a reshade-hez az rt plugin, ami ugyan screen space, de valódi rt, szoftveresen megy, tehát nem kell rt core hozzá, es megis gyors mint a fene. Épp az oridzsi Crysis 1-et játszom így rtx 3070-nel simán elbír 12 rayt több bounce-szal, amiről Cyberpunkban álmodni se lehet (amott a path trace 2 sugar, 1 bounce...)

"Aztakibebaszott eget, lett egy matchem Tinderen"



ha jól tudom a lumen lényege a realtime GI, ami valójában sokkal fontosabb lenne mint a tükröződések, mivel ez utóbbiakat fake megoldásokkal már rég megoldották, és alig van különbség a raytrace-hez képest. viszont a realtime GI továbbra sincs, ott is csak fake megoldások vannak, amik realtime és nagy pálya esetén nem túl jók. elvileg a lumen ezt oldja meg, na persze ennek is elég nagy erőforrás-igénye van. persze lehet hogy a lumen is raytrace...



afaik a lumennek van egy raytrace-es meg egy anélküli változata is, nemtom mekkora a különbség a kettő között

Chief Exorcist



chatgpt szerint a lumen a GI-hez nem használ raytracet, viszont a tükröződésekhez igen



Amúgy a legszebb RTGI implementáció eddig a Metro Exodus -ban volt, ráadásul elképesztően jól fut. Na ahhoz képest a CP RT-je nagyon gyenge.

"Aztakibebaszott eget, lett egy matchem Tinderen"



Úgy látszik. Van az UE5-ben fullos RTGI, de ha jól látom külön a Lumentől:

https://docs.unrealengine.com/5.0/en-US/hardware-ray-tracing-in-unreal-e...

Chief Exorcist



Óvatosan ezzel:

Ray Traced Reflections
This feature of ray tracing is deprecated and may be removed in a future release.

Ray Traced Translucency
This feature of ray tracing is deprecated and may be removed in a future release.

Ray Traced Global Illumination
This feature of ray tracing is deprecated and may be removed in a future release.

Vagyis ezek a funkciók megszűnnek, valószínűleg natív megoldások lesznek, mint a Lumen is (vagy épp pont a lumennel karöltve fognak működni mint natív implementáció).

"Aztakibebaszott eget, lett egy matchem Tinderen"



Jah ezek lehet ilyen legacy cuccok még az UE4-ből?

Mondjuk logikus lenne, hogy a Lumen legyen előbb utóbb a teljes csomag.

Chief Exorcist



Nem feltétlen UE4-ből, inkább arra gondolok, hogy OK, jelenleg külső "plugin" módon léteznek a fenti RT funkciók, de a célja az az Epic-nek szerintem, hogy ezeket a proprietary szarokat (khm... nvidia) kivezessék, és saját, teljes körü Ray Tracing rendszert készítsenek az UE5-höz, amik nyilván sokkal jobb teljesítménnyel / látvánnyal fognak funkcionálni, mint a mostani módi, mivel szerver része lesz az engine-nek, és hát ugye nem úgy lesznek megírva, hogy az Nvidia -féle RT magoknak kedvezzen, hanem úgy, hogy elfusson mindenen. Lásd: Lumen mostani állapota :D

"Aztakibebaszott eget, lett egy matchem Tinderen"



Ez meg egyszerűen nem igaz.

Lumen uses multiple ray-tracing methods to solve Global Illumination and Reflections. Screen Traces are done first, followed by a more reliable method.

Lumen uses Software Ray Tracing through Signed Distance Fields by default, but can achieve higher quality on supporting video cards when Hardware Ray Tracing is enabled.

https://docs.unrealengine.com/5.0/en-US/lumen-technical-details-in-unreal-engine/

"Aztakibebaszott eget, lett egy matchem Tinderen"



ez a sok hülye tekkknikai fejlesztés, aztán a játékok mégse lesznek jobbak :))
viszont ma már 2 ember tud fél év alatt AAA játékot csinálni, csak be kell húzni a pályára a sok nanite sziklát és kész. teli van a youtube ilyen videókkal, amik bizonyítják ezt! :)))



Erről jut eszembe. Crysis 1 (NEM a remaster).
Ez egy 2008-as játék :Đ
rwurl=https://imgur.com/a/ky2uLpq

..mondjuk nyakon csaptam RT-vel :D

"Aztakibebaszott eget, lett egy matchem Tinderen"



Érdekesen alakul a piac. Egyhetes hír, hogy a lengyeleknél kapásból 100 eurot esett az RTX4070 kártya ára. Mai hír volt, hogy Kínában az RX7900XT és az RTX4080 20%-ot esett.
Közben volt egy pletyka, hogy a 4070 kártyák gyártását leállította az NVidia, mert egyik kártya sem tudott bejutni a TOP40 eladásba. (Na vajon miért?)
Erre kijött másik hír, hogy az új 4070 kártyákon már a 4080-hoz gyártott GPU butítottja van, ezek szerint lehet valami a gyártás leállításában.
Közben jött egy pletyka arról, hogy júliusban jön RTX 4060Ti 16GB VRAM-mal. (Minő meglepetés, ja nem.) És valószínűleg lehet a Ti nélküli verzióból is ilyen változat. Pár nappal a pletykák után konkrét szivárgás volt egy adott gyártó ilyen modelljéről, miszerint 165W a TDP-je, tehát csak 5W-al kér többet a 8GB verziónál. A nem tuningos 4070 200W, a tuningos meg 230W körül van.
Most kérdés, hogy a játék VRAM para miatt jönnek ezek, vagy mert mindenki rákattant az AI szoftverekre és oda is végtelen sok VRAM kell?



az új 4070 kártyákon már a 4080-hoz gyártott GPU butítottja van

Ez azért érdekes, mert ha tényleg így van, akkor az Ngreedia készül egy 16GB-os 4070-re (vagy ez lesz a "Super"?), mivel a 4080-ra lehet pakolni 16GB-ot, de a mostani 4070-hez használt nyákra nem (kevesebb vram slot van rajta).

Érdekes, az biztos, kíváncsi vagyok mi lesz. Esetleg lehet, hogy tudnak valamit, amit mi nem? Úgy értve,hogy lehet, hogy az AMD is feljebb teszi a vram mennyiséget, és a mostani játék vram igény para miatt ezt nen hagyhatja szó nélkül a zöld oldal?

Sok a kérdés, majd meglátjuk mik lesznek a válaszok.

Az biztos,higy ha lesz 4070 16 GB vrammal 200K alatt, akkor megpályázok egyet, a mostani 3070-et meg elpasszolom 130K-ert (vagy 120-ert)

"Aztakibebaszott eget, lett egy matchem Tinderen"



AI-s művészkedést szerintem kevesen csinálnak otthoni gépen, inkább előfizetnek rá. aki meg melóban csinálja, ott megveszik neki a drága kártyákat sok memmel.
de az érdekes kérdés, hogy hova fejlődik ez a sok AI-s cucc... az pl. marha jó lenne ha tudományos célra lehetne használni. bitcoin helyett tudományos felfedezéseket "bányásznának" az emberek, tök jó lenne :)
az általános, chatgpt-szerű AI-k esetén meg kérdés, hogy a fejlesztőknek mi éri meg... valszeg az előfizetéses, szerveren futtatott szolgáltatás... félek, hogy a helyi gépen futtathatók nem fognak sehova se fejlődni, megrekednek valami alapszinten...

REWiRED - Kutyus felfedő szétszéledés - 2014-2057 © Minden Jog Fenntartva!
Virtuális valóság és Kecskeklónozó központ - Oculus MegaRift - PS21 - Mozi - 4D - Bajuszpödrés
Médiaajánlat/Borsós Brassói Árak
Rohadt Impresszum!