nem néztem bele túlságosan de valahol írják hogy tudták hatékonyabb módszerrel tanítani a modellt. én nemtudom ellenőrizni, nincs a kis szobában 50.000 db nvidia h100 gyorsítóm. de mindenesetre a legújabb chatgpt modellek már milliárd dollárokba kerülhetnek. szóval lehet kamu, és a kínaiak is százmillákat ráköltöttek.
bitblueduck írta: meg ennyit ér a korlátozás, hogy Kína ne kapjon csúcs hardvert AI fejlesztésre.
Gondolom ahogy az orosz olajból indiai olaj lett mielőtt megveszik ugyanazok, úgy vált az amerikai Nvidia gyorsítóból... nemtom, lehet szintén indiai Nvidia gyorsító? Xd
bitblueduck írta: nem néztem bele túlságosan de valahol írják hogy tudták hatékonyabb módszerrel tanítani a modellt.
Jaja, úgy hogy kopipésztelték a nyugatit, illetve az ő szemük az adatok korlátlan lopásakor sem rebbent. És főleg 1 kanyi dollárt se fizettek egyikért se.
Na jó, ezen rohadt jót nevettem :D
Running joke, hogy ha Steve áll, akkor baj van. Ha ül, akkor ok minden, ha fekszik, akkor nagyon király... erre... 5080 teszt... XD
rwurl=https://www.youtube.com/watch?v=sEu6k-MdZgc
3070 - 65% of the 3090 performance, 50% of the 3090 specs, 33% of the 3090 price - $500
5080 - 65% of the 5090 performance, 50% of the 5090 specs, 50% of the 5090 price - $1000
This is $670 (33% of the 5090 price) 5070 inside a $1k 5080 box and that's why it isn't even faster than the previous xx90.
Egy kevésbé megvágott, 384 bites, 24 gigás kártya lett volna logikus ebben a generációban xx80-nak, de sztem az túl jó deal lett volna és kannibalizálta volna az 5090 eladásokat. Ők meg érthető módon inkább a nagyon drága 5090-et szeretnék eladni neked.
Lasan kezd az az érzésem lenni, hogy a videókártyák annyira fejlődnek, mint a videojátékok. Vagyis az ezredforduló óta elfelejtettük a tükörképeket és a fizikát, de raytracingelve nézhetem az avatarokat egymillióért a fejlesztőcsapatok által 10 évente kiszenvedett filmekért játékokért. Csábító ajánlat, köszönöm mindenkinek, aki hozzájárult.
Training cuccot nem leltem róla, de van egy Youtube csatorna, ahol emberünk egy barkács AI szerverre (régi 64 magos Epic proci, 512GB ram, 4xRTX3090) próbál mindent is futtatni.
(Mindeközben a sarokban van nála igazi Dell AI workstation, azokban rack fiókonként van 1.44Tb ram például :D )
Na most a fenti vason ment neki egy 600B-s verziója a Deepseek R1-nek. Egy LLama 200B model kb. meg sem mozdulna úgy 170-200GB VRAM alatt. Ez meg megy. Jó, nem gyors, sőt lassú, de megy. Tehát valamit tényleg tud, amit a többi nem. Meg a hatékonyságot egy csak körülírt Huawei által fejlesztett chip is tetézi, nem volt elég oda pár NV H80-as.
De közben az Alibaba is kidobott egy saját LLM/AI cuccot, szóval házon belül is van ám verseny.
Inkább azt Nézd, hogy mennyiért lehet kapni most 4080s-et, és mennyiért 5080-at. Na ott a gond. Meg ez a Tech Powerupos grafikon azt se mutatja, hogy nem ritka, hogy sokkal gyengébb, mint a 4080s pár játékban :D
Ami vicces, hogy az AMD 9070xt kiszivárgott mérései alapján megelőzi a 4080s-et (kivéve RT, de ott hoz egy 4070ti s szintet)... a meresekkor meg nem volt 5080 a piacon. Most úgy áll, hogy erősebb lesz, mint az 5080... Kérdés, hogy valódiak - e a szivárgások?
Nem mondom, az AMD-nek szurkolok most, mert nekünk, fogyasztoknak csak jó lenne, ha végre az AMD csinálna egy cpu fronthoz hasonló mozdulatot. Bár tudjuk, hogy arról is hiresek, hogy önmagukat szoktak tökön lőni, szoval szvsz olyan balfaszul fognak arazni, hogy orom lesz nezni 🤣. Pedig ez most pont az a pillanat, amikor jó árazással egy legendary kártya születhetne.
Nem lenne rossz, ha nem rontanák el az árazást. De az még mindig egy másfél generációs lemaradás RT-vel :/
Azt még amúgy megértem, ha az AMD nem akar olyan monstre chipet csinálni, ami az xx90 kategóriában kellene a rivalizáláshoz, de az xx80-nal mindig aktuálisan pariban kéne lenniük.
Mikor volt ilyen legutoljára? Talán 7970 idejében?
Hát figyelj. Amint RT-t használsz, gyakorlatilag minden kártyával kell használni valamilyen felskálázást. Ha minden igaz, ez is nagyon rendben lesz vegre AMD-nél (fsr4). Én 3070-en STALKER 2-zöm kb. high-on, igaz, az ÚJ DLSS dll-el, balanced-ben (1080p), és teljesen jól fut. Na, ha egy 4070TI-t hoz RT-ben a 9070xt, az szvsz bőven fasza lesz, de mégegyszer: az árazás lesz a kulcspont. Nincs itt több genes lemaradás, az 5xxx széria (az 5090-et leszámítva) stagnál teljesítményben.
Hát, ha elterjednek ezek az új RT meg AI dolgok, ott kijöhet még az 5-ös széria előnye. De persze nem ez a valószínű, szimplán a konzolok miatt. Szóval sanszosan a konzolgeneráció végéig (plusz a crossgen időszak eleje) a játékok maradnak ilyen raszter/RT hibridek, szóval a 9070-nek nagyonis lehet keresnivalója.
Elvben semmi nem indokolja, hogy ne lehessen jól árazni. A TSMC 4 (ami az 5 reszelése) elvileg már nem kiemelkedően drága, a GDDR6 gyakorlatilag tömegtermék, és elvben a chip sem lesz túl nagy. Szóval - ahogy mondod - ezt itt megint csak az AMD hülyesége tudhatja elrontani :))
BTW úgy hallani, hogy a PS6 GPU-ja az UDNA egy nagyon korai forkja, ami azt sugallja, hogy Mark Cerny most szanszosan még több egyedi megoldást szeretne a konzolba. Azt mondják 2025 végére lesz a chip első tapeoutja, és eddig a Sonynál az volt a gyakorlat, hogy a tapeout után 2 évvel kerül piacra a konzol, ami 2027-es generációváltást jelezhet előre.
Amúgy simán lehet, hogy a teljesítmény szivarogtatasok kacsa, és lehet, hogy egy fos lesz a 9070xt, de akkor ott baszódjon meg az AMD ahol van 🤣
Úgy emlékszem, hogy konzol gen váltás elején\ közepén még nem nagyon van PC-s gépigény ugrás, mert előző genre is le kell mindent fejleszteni. Úgyhogy PC fronton kb. 3-4 évre tippelem a jelentős gépigény ugrásokat... talán...
Nam sanszos, hogy rossz lenne. Raszterben eleve nem voltak nagyon elmaradva, RT-n meg nyilván reszeltek annyit, hogy legalább egy gent lépjen előre.
Btw azon gondolkozom, hol tudja elcseszni az AMD. És gyanús kicsit, hogy eltolták a launchot. Oké, a hivatalos magyarázat szerint azért, hogy reszeljenek a szoftveren. De mi van, ha látták az 5-ös széria teljesítményét, és hogy többé-kevésbé pariban lehet az 5080-nel is a 9070... ezért inkább átnevezik 9080-ra, és drágábban adják xD.
//
Ha azt nézzük mikorra lett alapkövetelmény az SSD, a 16GB RAM, és ugrott meg a VRAM igény ebben a genben, körülbelül stimmol.
Mekkora meglepetés. Ja nem. :)
Amikor volt cikk róla, hogy a kínai videokártya gyárak egy részét áthelyezik Szingapúrba, mert különben nem tudnának gyártani, ez sejthető volt egyből. Nem mint ha Szingapúrból, Indonéziából vagy Malajziából ne tudtak volna annyit venni eddig is, amennyit nem akarnának.
Amúgy meg rég elkezdték átbuzerálni az összes felelhető gamer kártyát is, konkrétan gyártottak már 3090-ből is kvázi 48GB-os pro kártyákat. Utána volt hír róla, hogy 4090 GPU-kat átforrasztják 3090Ti nyákokra és azokból is gyártottak ilyet. És így tovább. Nyilván nem olyna hatékony, mint egy H80 vagy H100, de ha ló nincs, jó a szamár is.
nem néztem bele túlságosan de valahol írják hogy tudták hatékonyabb módszerrel tanítani a modellt. én nemtudom ellenőrizni, nincs a kis szobában 50.000 db nvidia h100 gyorsítóm. de mindenesetre a legújabb chatgpt modellek már milliárd dollárokba kerülhetnek. szóval lehet kamu, és a kínaiak is százmillákat ráköltöttek.
az a másik Kína (Taiwan) :D
EGY KÍNA VAN!!!44
Chief Exorcist
Gondolom ahogy az orosz olajból indiai olaj lett mielőtt megveszik ugyanazok, úgy vált az amerikai Nvidia gyorsítóból... nemtom, lehet szintén indiai Nvidia gyorsító? Xd
Chief Exorcist
Jaja, úgy hogy kopipésztelték a nyugatit, illetve az ő szemük az adatok korlátlan lopásakor sem rebbent. És főleg 1 kanyi dollárt se fizettek egyikért se.
Na jó, ezen rohadt jót nevettem :D
Running joke, hogy ha Steve áll, akkor baj van. Ha ül, akkor ok minden, ha fekszik, akkor nagyon király... erre... 5080 teszt... XD
rwurl=https://www.youtube.com/watch?v=sEu6k-MdZgc
"Aztakibebaszott eget, lett egy matchem Tinderen"
Egy kevésbé megvágott, 384 bites, 24 gigás kártya lett volna logikus ebben a generációban xx80-nak, de sztem az túl jó deal lett volna és kannibalizálta volna az 5090 eladásokat. Ők meg érthető módon inkább a nagyon drága 5090-et szeretnék eladni neked.
Chief Exorcist
Igen, hát rá vannak szorulva, szegényeknek még száraz kenyérhéjra se fussa.
Lasan kezd az az érzésem lenni, hogy a videókártyák annyira fejlődnek, mint a videojátékok. Vagyis az ezredforduló óta elfelejtettük a tükörképeket és a fizikát, de raytracingelve nézhetem az avatarokat egymillióért a fejlesztőcsapatok által 10 évente kiszenvedett
filmekértjátékokért. Csábító ajánlat, köszönöm mindenkinek, aki hozzájárult.Sors bona, nihil aliud.
Training cuccot nem leltem róla, de van egy Youtube csatorna, ahol emberünk egy barkács AI szerverre (régi 64 magos Epic proci, 512GB ram, 4xRTX3090) próbál mindent is futtatni.
(Mindeközben a sarokban van nála igazi Dell AI workstation, azokban rack fiókonként van 1.44Tb ram például :D )
Na most a fenti vason ment neki egy 600B-s verziója a Deepseek R1-nek. Egy LLama 200B model kb. meg sem mozdulna úgy 170-200GB VRAM alatt. Ez meg megy. Jó, nem gyors, sőt lassú, de megy. Tehát valamit tényleg tud, amit a többi nem. Meg a hatékonyságot egy csak körülírt Huawei által fejlesztett chip is tetézi, nem volt elég oda pár NV H80-as.
De közben az Alibaba is kidobott egy saját LLM/AI cuccot, szóval házon belül is van ám verseny.
Hát ez nem egy nagy előrelépés, viszont az MSRP ugyanannyi mint a 4080 Super, szóval a fene tudja...
rwurl=https://tpucdn.com/review/nvidia-geforce-rtx-5080-founders-edition/image...
Chief Exorcist
Inkább azt Nézd, hogy mennyiért lehet kapni most 4080s-et, és mennyiért 5080-at. Na ott a gond. Meg ez a Tech Powerupos grafikon azt se mutatja, hogy nem ritka, hogy sokkal gyengébb, mint a 4080s pár játékban :D
Ami vicces, hogy az AMD 9070xt kiszivárgott mérései alapján megelőzi a 4080s-et (kivéve RT, de ott hoz egy 4070ti s szintet)... a meresekkor meg nem volt 5080 a piacon. Most úgy áll, hogy erősebb lesz, mint az 5080... Kérdés, hogy valódiak - e a szivárgások?
Nem mondom, az AMD-nek szurkolok most, mert nekünk, fogyasztoknak csak jó lenne, ha végre az AMD csinálna egy cpu fronthoz hasonló mozdulatot. Bár tudjuk, hogy arról is hiresek, hogy önmagukat szoktak tökön lőni, szoval szvsz olyan balfaszul fognak arazni, hogy orom lesz nezni 🤣. Pedig ez most pont az a pillanat, amikor jó árazással egy legendary kártya születhetne.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Nem lenne rossz, ha nem rontanák el az árazást. De az még mindig egy másfél generációs lemaradás RT-vel :/
Azt még amúgy megértem, ha az AMD nem akar olyan monstre chipet csinálni, ami az xx90 kategóriában kellene a rivalizáláshoz, de az xx80-nal mindig aktuálisan pariban kéne lenniük.
Mikor volt ilyen legutoljára? Talán 7970 idejében?
Chief Exorcist
Hát figyelj. Amint RT-t használsz, gyakorlatilag minden kártyával kell használni valamilyen felskálázást. Ha minden igaz, ez is nagyon rendben lesz vegre AMD-nél (fsr4). Én 3070-en STALKER 2-zöm kb. high-on, igaz, az ÚJ DLSS dll-el, balanced-ben (1080p), és teljesen jól fut. Na, ha egy 4070TI-t hoz RT-ben a 9070xt, az szvsz bőven fasza lesz, de mégegyszer: az árazás lesz a kulcspont. Nincs itt több genes lemaradás, az 5xxx széria (az 5090-et leszámítva) stagnál teljesítményben.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Hát, ha elterjednek ezek az új RT meg AI dolgok, ott kijöhet még az 5-ös széria előnye. De persze nem ez a valószínű, szimplán a konzolok miatt. Szóval sanszosan a konzolgeneráció végéig (plusz a crossgen időszak eleje) a játékok maradnak ilyen raszter/RT hibridek, szóval a 9070-nek nagyonis lehet keresnivalója.
Elvben semmi nem indokolja, hogy ne lehessen jól árazni. A TSMC 4 (ami az 5 reszelése) elvileg már nem kiemelkedően drága, a GDDR6 gyakorlatilag tömegtermék, és elvben a chip sem lesz túl nagy. Szóval - ahogy mondod - ezt itt megint csak az AMD hülyesége tudhatja elrontani :))
Chief Exorcist
BTW úgy hallani, hogy a PS6 GPU-ja az UDNA egy nagyon korai forkja, ami azt sugallja, hogy Mark Cerny most szanszosan még több egyedi megoldást szeretne a konzolba. Azt mondják 2025 végére lesz a chip első tapeoutja, és eddig a Sonynál az volt a gyakorlat, hogy a tapeout után 2 évvel kerül piacra a konzol, ami 2027-es generációváltást jelezhet előre.
Chief Exorcist
Amúgy simán lehet, hogy a teljesítmény szivarogtatasok kacsa, és lehet, hogy egy fos lesz a 9070xt, de akkor ott baszódjon meg az AMD ahol van 🤣
Úgy emlékszem, hogy konzol gen váltás elején\ közepén még nem nagyon van PC-s gépigény ugrás, mert előző genre is le kell mindent fejleszteni. Úgyhogy PC fronton kb. 3-4 évre tippelem a jelentős gépigény ugrásokat... talán...
"Aztakibebaszott eget, lett egy matchem Tinderen"
Nam sanszos, hogy rossz lenne. Raszterben eleve nem voltak nagyon elmaradva, RT-n meg nyilván reszeltek annyit, hogy legalább egy gent lépjen előre.
Btw azon gondolkozom, hol tudja elcseszni az AMD. És gyanús kicsit, hogy eltolták a launchot. Oké, a hivatalos magyarázat szerint azért, hogy reszeljenek a szoftveren. De mi van, ha látták az 5-ös széria teljesítményét, és hogy többé-kevésbé pariban lehet az 5080-nel is a 9070... ezért inkább átnevezik 9080-ra, és drágábban adják xD.
//
Ha azt nézzük mikorra lett alapkövetelmény az SSD, a 16GB RAM, és ugrott meg a VRAM igény ebben a genben, körülbelül stimmol.
Chief Exorcist
Úgy néz ki Szingapúron keresztül mehettek az Nvidia cuccok Kínába.
https://www.techpowerup.com/331912/us-investigates-possible-singapore-lo...
Chief Exorcist
Mekkora meglepetés. Ja nem. :)
Amikor volt cikk róla, hogy a kínai videokártya gyárak egy részét áthelyezik Szingapúrba, mert különben nem tudnának gyártani, ez sejthető volt egyből. Nem mint ha Szingapúrból, Indonéziából vagy Malajziából ne tudtak volna annyit venni eddig is, amennyit nem akarnának.
Amúgy meg rég elkezdték átbuzerálni az összes felelhető gamer kártyát is, konkrétan gyártottak már 3090-ből is kvázi 48GB-os pro kártyákat. Utána volt hír róla, hogy 4090 GPU-kat átforrasztják 3090Ti nyákokra és azokból is gyártottak ilyet. És így tovább. Nyilván nem olyna hatékony, mint egy H80 vagy H100, de ha ló nincs, jó a szamár is.