nem néztem bele túlságosan de valahol írják hogy tudták hatékonyabb módszerrel tanítani a modellt. én nemtudom ellenőrizni, nincs a kis szobában 50.000 db nvidia h100 gyorsítóm. de mindenesetre a legújabb chatgpt modellek már milliárd dollárokba kerülhetnek. szóval lehet kamu, és a kínaiak is százmillákat ráköltöttek.
bitblueduck írta: meg ennyit ér a korlátozás, hogy Kína ne kapjon csúcs hardvert AI fejlesztésre.
Gondolom ahogy az orosz olajból indiai olaj lett mielőtt megveszik ugyanazok, úgy vált az amerikai Nvidia gyorsítóból... nemtom, lehet szintén indiai Nvidia gyorsító? Xd
bitblueduck írta: nem néztem bele túlságosan de valahol írják hogy tudták hatékonyabb módszerrel tanítani a modellt.
Jaja, úgy hogy kopipésztelték a nyugatit, illetve az ő szemük az adatok korlátlan lopásakor sem rebbent. És főleg 1 kanyi dollárt se fizettek egyikért se.
Na jó, ezen rohadt jót nevettem :D
Running joke, hogy ha Steve áll, akkor baj van. Ha ül, akkor ok minden, ha fekszik, akkor nagyon király... erre... 5080 teszt... XD
rwurl=https://www.youtube.com/watch?v=sEu6k-MdZgc
3070 - 65% of the 3090 performance, 50% of the 3090 specs, 33% of the 3090 price - $500
5080 - 65% of the 5090 performance, 50% of the 5090 specs, 50% of the 5090 price - $1000
This is $670 (33% of the 5090 price) 5070 inside a $1k 5080 box and that's why it isn't even faster than the previous xx90.
Egy kevésbé megvágott, 384 bites, 24 gigás kártya lett volna logikus ebben a generációban xx80-nak, de sztem az túl jó deal lett volna és kannibalizálta volna az 5090 eladásokat. Ők meg érthető módon inkább a nagyon drága 5090-et szeretnék eladni neked.
Lasan kezd az az érzésem lenni, hogy a videókártyák annyira fejlődnek, mint a videojátékok. Vagyis az ezredforduló óta elfelejtettük a tükörképeket és a fizikát, de raytracingelve nézhetem az avatarokat egymillióért a fejlesztőcsapatok által 10 évente kiszenvedett filmekért játékokért. Csábító ajánlat, köszönöm mindenkinek, aki hozzájárult.
Training cuccot nem leltem róla, de van egy Youtube csatorna, ahol emberünk egy barkács AI szerverre (régi 64 magos Epic proci, 512GB ram, 4xRTX3090) próbál mindent is futtatni.
(Mindeközben a sarokban van nála igazi Dell AI workstation, azokban rack fiókonként van 1.44Tb ram például :D )
Na most a fenti vason ment neki egy 600B-s verziója a Deepseek R1-nek. Egy LLama 200B model kb. meg sem mozdulna úgy 170-200GB VRAM alatt. Ez meg megy. Jó, nem gyors, sőt lassú, de megy. Tehát valamit tényleg tud, amit a többi nem. Meg a hatékonyságot egy csak körülírt Huawei által fejlesztett chip is tetézi, nem volt elég oda pár NV H80-as.
De közben az Alibaba is kidobott egy saját LLM/AI cuccot, szóval házon belül is van ám verseny.
nem néztem bele túlságosan de valahol írják hogy tudták hatékonyabb módszerrel tanítani a modellt. én nemtudom ellenőrizni, nincs a kis szobában 50.000 db nvidia h100 gyorsítóm. de mindenesetre a legújabb chatgpt modellek már milliárd dollárokba kerülhetnek. szóval lehet kamu, és a kínaiak is százmillákat ráköltöttek.
az a másik Kína (Taiwan) :D
EGY KÍNA VAN!!!44
Chief Exorcist
Gondolom ahogy az orosz olajból indiai olaj lett mielőtt megveszik ugyanazok, úgy vált az amerikai Nvidia gyorsítóból... nemtom, lehet szintén indiai Nvidia gyorsító? Xd
Chief Exorcist
Jaja, úgy hogy kopipésztelték a nyugatit, illetve az ő szemük az adatok korlátlan lopásakor sem rebbent. És főleg 1 kanyi dollárt se fizettek egyikért se.
Na jó, ezen rohadt jót nevettem :D
Running joke, hogy ha Steve áll, akkor baj van. Ha ül, akkor ok minden, ha fekszik, akkor nagyon király... erre... 5080 teszt... XD
rwurl=https://www.youtube.com/watch?v=sEu6k-MdZgc
"Aztakibebaszott eget, lett egy matchem Tinderen"
Egy kevésbé megvágott, 384 bites, 24 gigás kártya lett volna logikus ebben a generációban xx80-nak, de sztem az túl jó deal lett volna és kannibalizálta volna az 5090 eladásokat. Ők meg érthető módon inkább a nagyon drága 5090-et szeretnék eladni neked.
Chief Exorcist
Igen, hát rá vannak szorulva, szegényeknek még száraz kenyérhéjra se fussa.
Lasan kezd az az érzésem lenni, hogy a videókártyák annyira fejlődnek, mint a videojátékok. Vagyis az ezredforduló óta elfelejtettük a tükörképeket és a fizikát, de raytracingelve nézhetem az avatarokat egymillióért a fejlesztőcsapatok által 10 évente kiszenvedett
filmekértjátékokért. Csábító ajánlat, köszönöm mindenkinek, aki hozzájárult.Sors bona, nihil aliud.
Training cuccot nem leltem róla, de van egy Youtube csatorna, ahol emberünk egy barkács AI szerverre (régi 64 magos Epic proci, 512GB ram, 4xRTX3090) próbál mindent is futtatni.
(Mindeközben a sarokban van nála igazi Dell AI workstation, azokban rack fiókonként van 1.44Tb ram például :D )
Na most a fenti vason ment neki egy 600B-s verziója a Deepseek R1-nek. Egy LLama 200B model kb. meg sem mozdulna úgy 170-200GB VRAM alatt. Ez meg megy. Jó, nem gyors, sőt lassú, de megy. Tehát valamit tényleg tud, amit a többi nem. Meg a hatékonyságot egy csak körülírt Huawei által fejlesztett chip is tetézi, nem volt elég oda pár NV H80-as.
De közben az Alibaba is kidobott egy saját LLM/AI cuccot, szóval házon belül is van ám verseny.