Jelenlegi hely

Technikai hírek

Utolsó bejegyzés


Egyébként a gen-on-gen előrelépésről.... szerintem itt már tényleg kezd belefutni az Nvidia abba a gyártástechnológiai falba, amit most ki lehet hozni tranzisztorszám és fogyasztás területén. Egyértelmű, hogy ez így nem nagyon mehet tovább ebben a formában, és gondolom paradigmaváltásre lesz szükség... és hát sanszosan ez lehet a neural rendering, ahol megint alsó hangon egy generációnyi előnnyel indultak el most, mint annak idején az RT-vel, és azóta is behozhatatlanok.

Chief Exorcist



5090-re, ha nulla kereskedői nyerészkedést (muhaha!) teszek rá, akkor 416-os EUR árfolyam mellett a vám-áfa 1,3 szoros szorzójával 1.080.000 Ft

Vajon megvegyem-e? :D

"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."



4090-et hogyé' tudod elpasszintani?

Chief Exorcist



gyenge 600

"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."



Hát legfeljebb várd meg az első teszteket, de egyébként 400-ért a hülyének is megéri.

Chief Exorcist



alapvetően igazad van, mert a 4070 feletti kategóriában az nvidia azt csinál amit akar, mert csak ők versenyeznek ott.
5090 brutál lesz, de ezt már beszéltük. bár azért ott is erősen alkalmazásfüggő, csak far cry 6 miatt nem váltanék 4090ről :D
rwurl=https://imgur.com/a/TTP7gCg
5080-nál meg mindenki örül hogy nem 1200-1300 lett lol.
alapvetően aki most vesz új cuccot lehet az 5000 szériába érdemes beruházni de mégsem érzem hogy rohanni kellene a boltba ezekért.
12GB ram egy kicsit cringe, bár szerintem ellehet azzal lenni még egy darabig. csak hát amikor én kompromisszumos kártyát vettem akkor az a galaxy 7300gt ddr3 volt és 20.000 forint körül :D
az 4090 <= 5070 jellegű összehasonlítás meg már az előző generációnál is nagyon cringe volt.



Adok érte 300 at!



Ez esetben kettőt fizet, egyet kap akciót hirdetek!

"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."



https://www.techpowerup.com/330981/microsoft-lays-directx-api-level-grou...

Microsoft Lays DirectX API-level Groundwork for Neural Rendering

Microsoft announced updates to the DirectX API that would pave the way for neural rendering. Neural rendering is a concept where portions of a frame in real-time 3D graphics are drawn using a generative AI model that works in tandem with classic raster 3D graphics pipeline, along with other advancements, such as real-time ray tracing. This is different from AI-based super resolution technologies. The generative AI here is involved in rendering the input frames for a super resolution technology. One of the nuts and bolts of neural rendering is cooperative vectors, enable an information pathway between the conventional graphics pipeline and the generative AI, telling it what it's doing, what needs to be done by the AI model, and what the ground truth for the model is.

Microsoft says that its HLSL team is working with AMD, Intel, NVIDIA, and Qualcomm to bring cross-vendor support for cooperative vectors in the DirectX ecosystem. The very first dividends of this effort will be seen in the upcoming NVIDIA GeForce RTX 50-series "Blackwell" GPUs, which will use cooperative vectors to drive neural shading. "Neural shaders can be used to visualize game assets with AI, better organize geometry for improved path tracing performance and tools to create game characters with photo-realistic visuals," Microsoft says.

https://devblogs.microsoft.com/directx/enabling-neural-rendering-in-dire...

Enabling Neural Rendering in DirectX: Cooperative Vector Support Coming Soon

Neural Rendering: A New Paradigm in 3D Graphics Programming​
In the constantly advancing landscape of 3D graphics, neural rendering technology represents a significant evolution. Neural rendering broadly defines the suite of techniques that leverage AI/ML to dramatically transform traditional graphics pipelines. These new methods promise to push the boundaries of what’s possible in real-time graphics. DirectX is committed to cross-platform enablement of neural rendering techniques, and cooperative vectors are at the core of this initiative.

We are excited to share our plans to add cooperative vector support to DirectX, which will light up cross-platform enablement of the next generation of neural rendering techniques.

What are Cooperative Vectors, and why do they matter?​

Cooperative vector support will accelerate AI workloads for real-time rendering, which directly improves the performance of neural rendering techniques. It will do so by enabling multiplication of matrices with arbitrarily sized vectors, which optimize the matrix-vector operations that are required in large quantities for AI training, fine-tuning, and inferencing. Cooperative vectors also enable AI tasks to run in different shader stages, which means a small neural network can run in a pixel shader without consuming the entire GPU. Cooperative vectors will enable developers to seamlessly integrate neural graphics techniques into DirectX applications and light up access to AI-accelerator hardware across multiple platforms. Our aim is to provide game developers with the cutting-edge tools they need to create the next generation of immersive experiences.

What’s Next For Neural Rendering?​

The HLSL team is working with AMD, Intel, NVIDIA, and Qualcomm on bringing cross-vendor support for cooperative vectors to the DirectX ecosystem. Stay tuned for more updates about cooperative vectors and its upcoming Preview release!

Cooperative vectors will unlock the power of Tensor Cores with neural shading in NVIDIA’s new RTX 50-series hardware. Neural shaders can be used to visualize game assets with AI, better organize geometry for improved path tracing performance and tools to create game characters with photo-realistic visuals. Learn more about NVIDIA’s plans for neural shaders and DirectX here.

rwurl=https://www.youtube.com/watch?v=5PHBXY0FI5o

Chief Exorcist



RTX Mega Geometry intelligently updates clusters of triangles in batches on the GPU, reducing CPU overhead and increasing performance and image quality in ray traced scenes. RTX Mega Geometry is coming soon to the NVIDIA RTX Branch of Unreal Engine (NvRTX), so developers can use Nanite and fully ray trace every triangle in their projects. For developers using custom engines, RTX Mega Geometry will be available at the end of the month as an SDK to RTX Kit.

Ez elvileg nem csak az UE5-be, hanem az Alan Wake 2-be is bekerül day 1.

Chief Exorcist



RIP RADEON

Chief Exorcist



Én ezzel megvárnám a 9070-et azért. Nézd meg a Steam HW survey-t. Az emberek nagyon nagy többsége ilyen 3060 szintű kártyákkal játszik, a 8GB Vram meg bőven elterjedt.
rwurl=https://imgur.com/a/Sfxik0O

Az is érdekes, hogy az AMD integrált mennyire fenn van, mint játékra használt "gpu"!
Érdemes megnézni, hogy az új 5xxx széria bejelentése óta hogy megugrottak a régebbi kártyák arányai :D

Ha az rt perf. rendbe lesz téve AMD-nél, akkor fasza. FSR4 eléggé rohadt jól néz ki (amiket eddig láttam, aszerint jobb a minőség, mint DLSS-nél!).
Jön a SteamOS 3 is mindenre (nvidia hozzáállása miatt még a mai napig nincs használható NVIDIA GPU driver linuxra, emiatt ott AMD win), a konzolok meg most is, és jelenleg nagyon úgy tűnik, hogy a jövőben is AMD HW-re fognak építkezni.
Win 11-et az emberek rühellik, a vicc, hogy Win10-nek most nőtt a népszerűsége :D . Miért fontos ez? Az emberek váltanának nagyon Windowsról, de JELENLEG nincs olyan másik oprendszer, ami alternatíva lenne bizonyos taskokra. A SteamOS, ha a Valve-nek is ez a terve, akkor nagyon el tud majd terjedni asztali gép fronton is, mert egyébként meg fasza rendszer, csak reszelni kell még. Ha elterjed, akkor a játékfejlesztők talán elkezdenek majd Linuxra is natívan fejleszteni végre... ahol ugye Nvidia jelenleg nem épp remekel. Márpedig a kézi PC-k egyre nagyobb piac, pont a Steam OS miatt! Ehhez ha hozzájön, hogy együtt durrantja a Valve a HL3-at és egy rendes asztali SteamOS-t, kölcsönösen promózva és összebundle-özve a két terméket, akkor szerintem nagyon erős változások lesznek a jelenlegi PC piacon nagyon sok téren.

Nézd csak, egy hónap alatt ez elég sok, és még a multiplatform SteamOS nem jött ki:
rwurl=https://imgur.com/cOt1Z5V
rwurl=https://imgur.com/b0n89d2

Jók ezek az nvidia techek, de amíg ilyen árakon adják a gpu-t, addig nincs nvidia win (szigorúan jatekosokat nézve). Az, hogy jelenleg mi a piac, egy dolog, de a közeljövőt tekintve szerintem lesz majd még az amd-nek pár jól sikerült lépése. Messze nem mondanám lefutott körnek még.
Ne felejtsük el, hogy amikor az AMD hangos, akkor általában fos a termékük, de amikor csendben vannak, akkor nagy valószínűséggel tartogatnak valamit.
Az embereket meg már az AI kifejezéstől is rázza a hideg, kezd teljesen pejoratív értelmet felvenni a rövidítés.

Nekem is még 3070-em van, de lassan cserélném. Jelenleg nincs mire, olyan iszonyat árak vannak, és az FSR3 minősége miatt AMD-t egyelőre nem. Ha fasza lesz az FSR4, egy pillanatig nem fogok gondolkodni, és vissza fogok térni AMD-re.

"Aztakibebaszott eget, lett egy matchem Tinderen"



A 9070 széria 16GB-os lesz.

A kolléga NV reklámjára meg csak annyit, hogy LOL.
Megint eladják a bump mappinget, a tesselationt, meg a displacement mappinget?
Végül is csak alig 20 éves technológiák, de majd most AI-val tuti jó lesz!

Ennél már csak ennél a résznél röhögtem jobban:
rwurl=https://www.youtube.com/watch?v=Uu-ifqQHvuw&t=255s
RTX ACE AI XDDDDDD



Nem látok elég nagy technikai előrelépést az RTX5000 szériában. Elég fura, hogy a 3000-es érában leragadtak pl. rasterizáció ügyileg. AZ RX7000-es pont abban volt egy előrelépés a pirosak részéről. Nekem tetszik technikailag a DLSS, a négyes verzió nagy ugrás lesz minőségben, de nem lehet csak ezzel előrelépni.
Puszta számok alapján az 5080 lesz az ami tényleg tudni fogja az RTX4090 teljesítményét. De ha így nézzük, akkor még is van előrelépés, mert nem 1600USD, csak 999 az ára.
Arra, hogy mit tud egy 5070-es a 4070-es elődjéhez képest, az majd a tesztekben kiderül. Az RX9070-es kártyákról meg elég nagy kuss van, szigorúan veszik az NDA-t, mert ugye zárt ajtók mögött már bemutatták a sajtónak. 21-én megtudjuk mit titkolnak, hogy nagyon jó, nagyon rossz vagy egyebet?
Tippelés alapján az RX9070 simán megeszi a 4070 kártyákat, volt olyan játék ahol 4K-ban 4080 teljesítményt hozott natív felbontásban. Viszont általánosságban az XT verzió lesz ami a 4080-at hozza majd. Ha ez igaz, érdekesen fognak kinézni az GPU árak 500 és 1000USD között, főleg előző generációs RTX és RX kártyákat tekintve.
Engem a Raytracing teljesítmény érdekelne az új kártyáknak, a valós, mert elvileg abban mindkettő nagyot lépett előre. És hát az UE5-be beharangozott realtime pathtracing-hez fontos lesz.

AZ RTX Ace meg érdekes lehet, mondjuk a két darab bemutatott példa nem volt annyira meggyőző, de ez az irány a jövő. Nem viccből van vagy fél tucat cég, aki ilyen szolgáltatást kínál a fejlesztőknek. Más kérdés, hogy fél szemmel figyelve az amatőrök is próbálkoznak, csak hát otthoni gépeken, még drágán is, csak elég szerény traininget lehet csinálni.
UE5-ben is van AI Agent rész, de annyira nincs még kész, hogy valami 0.1-0.2 verziószáma van, nincs értelmes tutorial, stb. Itt megint csak azért, mert ehhez is vas kéne AI alá, a gamer kártyák meg lepkefing kategóriák ebben.



Röviden: nem értek egyet :)))

Hosszabban pár pontban:

- A konzolok azért maradnak AMD HW-n, mert az AMD tudja nekik egy tokozásban, olcsón biztosítani az X86-os procit és a GPU-t (bár ne feledjük, hogy a legnépszerűbb konzol a Switch, ami Nvidia hardverrel megy, és a Switch 2 is azon marad, de a Nintendo egy külön világ, PC-s szempontból kevés relevanciája van).

- Amióta az AMD-s konzolos korszak elindult, vagyis a PS4 óta halljuk, hogy emiatt majd minden is AMD-re lesz optimalizálva PC-n is, és milyen fasza lesz. Csak hát azt látjuk, hogy PC-n meg (nyilván nem kevés pénz elköltésével) mindend leuralt az Nvidia és diktálja a technológiai fejlődést a saját hardveres elképzelései alapján. Ez volt az RT-vel és a DLSS-sel is, rögtön "rászoktatják" a fejlesztőket, az AMD pedig konstans lépéshátrányban van. Ugyanez lesz a Neural Renderinggel is. Hát kapásból itt lesz 4 generációnyi Nvidia GPU, amikben hadra lehet fogni a Tensor Core-okat, miközben az AMD-nél még az RDNA4-ben sem lesz külön dedikált AI gyorsító.

- Ami miatt egyértelműen ez lesz a jövő, arról már sokat beszéltünk. Láthatóan a hagyományos rasterrel a gyártástechnológia miatt falnak ütköznek, egyre kevesebb a gen-on-gen előrelépés, és az is leginkább brutális fogyasztás mellett valósul meg.

- Az Nvidia ugye már most teríti a Neural Renderinges devkit csomagjait a fejlesztőknek. Persze, mivel a dolog beépül a DirectX 12-be, úgymond "demokratizálva" lesz a Neural Rendering, de ismét csak: komoly lépéselőnyben az Nvidia a szoftveres oldalon és a deveknél.

- A "következő év már a Radeon éve lesz" és a "következő év a Linux gaming éve lesz" mantrát hallgatjuk már nem is tudom... jó rég óta :)) Nem hiszek benne. A PC-alapú kézikonzolokat említed, mint lehetséges húzóerőt, de ezek néhány milliós tételben kelnek el maximum, valójában egy niché-ről van szó. Ráadásul a Microsoft nem csak a pénzét és a befolyását tudja bevetni a Windows érdekében, ahogy tette azt mindig, de specifikusan mint mostanra talán már a legnagyobb játékkiadó, nyilván gaming vonalon sem fogja törni magát a linuxos portokkal.

Chief Exorcist



Komplikato írta: Itt megint csak azért, mert ehhez is vas kéne AI alá, a gamer kártyák meg lepkefing kategóriák ebben.

Nem vas kéne alá, hanem, hogy a fejlesztők megcsinálják. Akár egy c2duo szintű hardveren is elmenne.
F.E.A.R. és UT3 szintű botok/ellenfelek hány éve voltak? Azt a szintet nem tudjuk azóta se újra elérni.

A FEAR idén 20 éves...


Zoo képe
Zoo
Földieperhivatásos Grammar NaziDonatorCsillag

Már a F.E.A.R. 2-re sikerült is elhozni a visszalépést.

Sors bona, nihil aliud.



Na, ha ez igaz, és legit a szivárgott anyag,, akkor már csak az áron múlik, hogy megvan-e a következő GPU-m :D
https://videocardz.com/newz/alleged-amd-radeon-rx-9070-xt-performance-in-cyberpunk-2077-and-black-myth-wukong-leaked

"Aztakibebaszott eget, lett egy matchem Tinderen"



Ha tényleg az lesz az ára, ami, akkor érthető. Tulképp 4080 csak féláron kb. Csak aztán fogod majd a fejed amikor az új AI techek be lesznek építve a játékokba, és nem fog futni a 9070-en, vagy csak 6fps-sel :P

Én mondjuk a kb hasonló árban érkező 5070 valós teljesítményét lehet megnézném előbb.

Chief Exorcist



Jó lesz az még 10 év múlva (ha egyáltalán). Mégegyszer: Nézd már meg milyen gpu-kkal játszanak az emberek. Már most is rezeg a léc a sok barbár UE minor programozó miatt az optimalizálásnál, és kb a topon áll szvsz a dolog, ettől feljebb nem mehetnek a fejlesztők, mert nem lesz meg a kellő bevétel, mert nem lesz ki játszon a cuccokkal.
De amugy jön majd egy KCD2, ami nem hightech graf (bár elég pofás), azzal el leszek igy is olyan 200-500 órát. Miért? Mert a játékmenet és maga a JÁTÉK a lényeg, az, hogy reaktív a teljes környezeted a cselekményekre.
Aztán mire megunom, olyan pofon jön majd egy HL3 képében a sok UE maszlagnak, hogy öröm lesz nézni :D

Eddig is bejöttek amiket írtam, most is be fognak jönni.

BTW kukkantsd meg az Alan Wake 2-t. Elég jó játék, vegigszenvedtem fos FPS-sel, mert érdekelt a sztori, de az eladások még mindig nem fedezik a fejlesztési költségeket. Nincs kinek eladni, olyan brutális a gépigénye.

"Aztakibebaszott eget, lett egy matchem Tinderen"



Persze részben azért vicceltem :))

Ha nem is 10, de 5-6. Szerintem a következő konzolgen már erre fog épülni (Mark Cerny PS5 Pro előadásának végén van egy ilyen előretekintés, ahol ezt gyakorlatilag elmondja), és akkor valóban elterjedhet majd. És mivel közösen dolgoznak ezen az AMD-vel (van is valami neve ennek a közös "AI mindenre" projektnek, csak elfelejtettem), sanszosan rendben lesz.

Addig bőven megszolgálja majd az árát a 9070.

Szerintem az AW2-nél nem ez a fő gond. Az első se volt egy kiemelkedő siker, a folytatás marha későn jött, és Epic exkluzív.

Chief Exorcist



De amúgy pont a 9070 már meg lesz pakolva natív AI gyorsítókkal (legyen ez bármi is), amiatt lehetséges az FSR4 is. Lehetséges, hogy minden ilyen jövőbeni AI cucc is elmekeg majd rajta (ahogy irtad, az MS által behozott \ majd behozott rendszerszintű API-kkal).

De azt se felejtsd el, hogy a VRAM mennyiségre egyre jobban rászáll a PC társadalom, és szvsz elég pofátlan egy 5070-et 12 GB Vrammal kiadni. Konkrétan van már most is több olyan játék, ahol 1440p-ben már kifullad, és több kellene.

Persze nagyon erős találgatás a témában mostanság minden, ugyhogy amíg kivárok, addig jó lesz az az AMD (... ha...). Amúgy is jó lenne letörni az NVIDIA szarvát egy kicsit, mert ha egyeduralkodó lesz teljesen a piacon, az nekünk, fogyasztóknak, és úgy an-block a teljes PC gamingnek a katasztrófával vol felérni.

"Aztakibebaszott eget, lett egy matchem Tinderen"



Én úgy tudom natív AI gyorsító nem lesz, hanem továbbra is a shader magokat tuningolják úgy, hogy jobbak legyenek az AI feladatok gyorsításában. De ezt valóban nem tudjuk. Mire kiderül az architektúra pontos felépítése nyilván tesztek is lesznek már.

Chief Exorcist



https://www.tomshardware.com/pc-components/gpus/amd-rdna-4-radeon-rx-9000-series-gpus-revealed-targeting-mainstream-price-and-performance-with-improved-ai-and-ray-tracing

This will also be the third generation of AMD’s Ray Accelerators, and the second generation of the AI Accelerators and Radiance Display Engine. About the only truly surprising aspect of RDNA 4 is that it took AMD this long to seriously invest in AI cores for its consumer GPUs — the CDNA architectures have had tensor processing units for several years now.

"Aztakibebaszott eget, lett egy matchem Tinderen"



Ha second generation, akkor az az RDNA3 generáció továbbfejlesztését jelenti, hiszen logikusan akkor annak kellett az első generációnak lennie. Ott pedig nem volt dedikált AI unit afaik, csak a shader magok tuningolása a megfelelő formátumok támogatásával.

Chief Exorcist



Ott a második mondatreszben, hogy _eddig_ az AMD nem hozott AI gyorsítót a konzumer piacra. Vagyis az RDNA4-nél már lesz. Másképp nem is működhetne az FSR4, hiszen AI trained model. Ha rendes AI gyorsítók nélkül futna, akkor...
. Na... konkrét példa : probalj meg futtatni egy LLM-et magadnál CPU-n, aztán GPU-n. Van némi sebességbeli különbség, mondjuk ugy 1000x-es minimum. Na, ha rendes HW gyorsítás nélkül lehoz egy BigData AI-t az AMD (FSR4), akkor le a kalappal.

"Aztakibebaszott eget, lett egy matchem Tinderen"



Sorry, én vagyok a hülye. Úgy látszik az RDNA 3-ban már valóban volt AI egység:

rwurl=https://cdn.rios.hu/dl/cnt/2022-12/180396/cup.jpg

Szemben az RDNA 2-ben még nem:

rwurl=https://cdn.rios.hu/dl/cnt/2020-11/164172/rdna2wgpcu.jpg

Így tényleg megállja a helyét a második generációs.

Chief Exorcist



Azért mondom, meglepő is lett volna, ha tényleg nincs AI gyorsító bennük.
Más : price leakek is jöttek tegnap, de nyilván, ezek csak pletykák, simán lehet, hogy egyáltalán nem igaz, de ha igaz, akkor eléggé be fog találni az AMD:
https://www.techpowerup.com/330945/amd-radeon-rx-9070-xt-pricing-leak-more-affordable-than-rtx-5070

9070 XT Ref. = 479 USD
9070 XT AIB = 549 USD

Túl szép, hogy igaz legyen SZVSZ, az AMD meg ugye híres arról, hogy balfasz ha előnykihasználásról van szó :D

"Aztakibebaszott eget, lett egy matchem Tinderen"



Azt is lehetett hallani, hogy az AIB-knek elég nagy mozgásteret hagynak most TBP-re, és így az órajelekre nézve, szóval érdekesek lesznek a tesztek.

Chief Exorcist



Oh, Miscrosoft, never change...
https://www.neowin.net/news/microsoft-pulls-a-windows-as-it-breaks-linux-on-intel-cpus-and-angers-amd-in-the-process/

TLDR: Az MS egy módosítást vitt fel a friss, készülő Linux kernelhez (ugye open source, bárki tud belenyúlni), ami tönkre vágta az egészet. Annyira jellemző :D
Az AMD-nek és Intelnek kellett javítania a hibás funkciót.
Szépen látszik, hogy az MS-nél milyen totalisan inkompetens team van, és egy ilyen akció alapján már meg sem szabad lepődni, hogy miért egy fos amit a windows-ból csinálnak.

"Aztakibebaszott eget, lett egy matchem Tinderen"

REWiRED - Kutyus felfedő szétszéledés - 2014-2057 © Minden Jog Fenntartva!
Virtuális valóság és Kecskeklónozó központ - Oculus MegaRift - PS21 - Mozi - 4D - Bajuszpödrés
Médiaajánlat/Borsós Brassói Árak
Rohadt Impresszum!