Másfél hete futottam bele olyan videóba, hogy Intel ARC 770-en némi bűvészkedéssel 3x-os hash rate érhető el egy bizonyos feltörekvő Coin bányászásánál, de csak a 16GB-os verzióval működik. :P
A Battale Mage meg pletykák szerint 24 és 32GB kiszerelésbe jön majd ki.
Akartam írni, hogy a 192 bit miatt nem menne rá a 16GB ram, erre rákerestem a nyák képére, és bizony Asus ROG képen látszik, hogy ugyan az a nyák, mint a 4080 és ott figyel két üres ram foglalat. Olyan tipp már volt, miszerint majd 4070 Super néven lesz 16GB verzió.
Azon gondolkoztam, milyen fura, hogy a GPU-k elkezdtek ilyen általános célú szoftveres feldolgozás felé menni, arra számítottam, hogy előbb-utóbb a raszterizálásra használt dedikált hardverek is kikerülnek belőlük (asszem az UE5 legalábbis részben már szoftveresen raszterizál compute shaderrel??), aztán most megint egyre több a dedikált hardver - Tensor magok, RT magok, meg ki tudja még micsoda.
Semmi különösebb oka nincs, hogy ezt most leírtam, csak valahogy eszembe jutott :))
sokkal nagyobb probléma (nekem), hogy érdektelenné vált az egész. mindig is az volt az érdekes a realtime grafikában, hogy okos tech trükköket kellett alkalmazni. ennek lassan vége :)
na persze még most is érdekes dolgok vannak, de egyre kevesebb...
Ott van a trükk :)) 128 bites lesz az sztem, ahogy gondoltam, csak a nagy L2 cache miatt odaírják, hogy effektíve a duplája. Még a press release-ben is kiemelik :)
The RTX 4060 Ti's memory subsystem features 32 MB of L2 cache and 8 GB or 16 GB of ultra-high speed GDDR6 memory. The RTX 4060 has 24 MB of L2 cache with 8 GB of GDDR6. The L2 cache reduces demands on the GPU's memory interface, ultimately improving performance and power efficiency.
Nyilvan impresszív ez az L2, de hát azért kíváncsi leszek.
A vicc, hogy a cache memória ára sok-sokszorosa a sima gddr6 -é. Ha jól számítom, olcsóbb lenne 16GB de akár 24GB gddr6 -tal mindegyik 4xxx -es kártya (mondjuk 4mb cache-el), 256 vagy 384 bites sávval, mint ilyen nagy cache-el.
De hát sokkal kevesebbet fogyasztanak mint a 3xxx gen! Persze, mondhatnánk, csak Ngreedia itt is bejátszott egy nagyon durva dolgot:
Eddig minden gen. váltáskor nagyobb volt a teljesítmény -beli különbség, pl. a 3070 a 2080Ti-t előzi pár %-kkal, de mégis sokkal kisebb fogyasztással.
Na most nem így van. Most a 4060Ti(!) lesz pariban a sima 3070-nel.
A fentiek alapján azt lehet mondani, hogy jó nagy átbaszás a 4x gen. Szóval konkrétan az Ngreedia minden tiert eggyel feljebb cimkézett (ezt már a 4070 és Ti változatnál is sejthettuk, de most már 120%), szoval amit kihoznak pl. 4060 néven az valójában egy 4050 kellene legyen, a 4070 meg egy 4060Ti. Persze, akkor nem lehetne ennyire rohadt drágán adni a tiereket.
Na ez a gusztustalan.
...meg az, hogy 2023-ban még kiadnak 8GB-os kártyákat úgy, hogy a játékipar most kezd átállni fullra a PS5 genre (16GB osztott memória, amiből általában min. 12GB van a gpu-nak osztva). Szóval csak elismerően tudok tapsolni mind az NV-nek, mind az AMD-nek, bár ha a pirosak kihoznak egy 7700XT-t 16GB VRAM-mal, akkor meg van bocsatva (350 USD áron).
A nagy cache afaik az RT-nek kedvez kifejezetten, mert nagyon memsávszél igényesek az RT utasítások, szerintem az AMD se véletlenül ment erre, persze ott az L3 a nagy. Csak ettől még nem kéne ennyire cigánykodni a sávszéllel :)))
A konzolok kicsit bonyeszebb történet, mert az IO és a finomszemcsés memóriamenedzsment miatt ott valójában sokszorosa az "effektiv" memóriamennyiseg.
(sztem lehet részben ennek a levét isszák mostanában a PC-s portok)
Én csak azt nem értem, hogy egy amúgy (viszonylag) normálisan működő multiplatform engine, mint az UE4 miért lett hirtelen ENNYIRE fos PC-n? Minden adott, hogy viszonylag kis munkával normálisan kezelje az erőforrásokat, de a fejlesztők valamit olyan szinten elkúrnak mostanság, hogy rossz nézni.
Kellene egy új Carmack a PC világnak, mert ez a folyamat szörnyű.
Jah. Főleg azt nem értem, miért nem alap a shader precompile. Oké, hogy ha drivert frissítesz újra ki kell bírni azt a rettenetes 2 percet, de talán még mindig jobb az havi 1x mint a folyamatos stutter gameplay közben...
De, ameddig én jutottam benne (feléig se sztem, folytatni kéne valamikor), nekem nem tűnt túltolt woke szarnak. Igen, a lány leszbi benne, de például szerintem ez magyarázható azzal, hogy mennyi trauma érte már fiatalként / gyerekként. Azon kívül, hogy összeomlott az egész világ, ki tudja például, hogy mennyi férfi próbálta meg molesztálni, vagy simán csak bántani, amíg Joel nélkül kódorgott ki tudja hol? Ilyen lelki traumák simán okozhatják azt, hogy később valaki a saját neme felé fordul -- a hétköznapi életünkben ez lehet akár egy abuzív apa, vagy egy elhanyagoló, szeretetet nem mutató anya miatt is. És egyébként ezek azok az esetek is, amikor a "melegség" kezelhető, vagyis pszichoterápiával ezekből a traumákból ki lehet gyógyulni.
Egy szó mint száz: egy ilyen komoly történetben, ennyire felnőtt módon előadva ez belefér, sőt, történetileg akár indokolt is! A probléma, hogy túl vagyunk már szaturálva ezekkel a sok primitív szinten csakazértis betolt woke szarokkal, amiknek semmi értelme, és ezért rögtön egy skatulyábba helyezzük ezeket, ez pedig pont nagyon szar érzés lehet egy olyan történetírónak, aki pedig egyébként ezt komolyan gondolja.
És igen, bevallom, sztem a sorozatban is indokolt lehetett, profin volt megírva és adott esetben belefért a buzis epizód, csak kérdés, hogy kellett-e ilyen hosszan, illetve arról meg nem tehet az egészséges férfiember, hogy férfiak buziskodása kibaszott undorító látvány. :D
Na, erről beszéltem. Lusta fejlesztők, mesterségesen magas VRAM igények... Milyen érdekes, hogy a kezdeti felháborodás után csak meg lehetett ezt oldani... SOKKAL kevesebb VRAM használat, de ennek ellenére ugyanazon beállítási szinten magasabb felbontású textúrák:
rwurl=https://www.youtube.com/watch?v=L8bg9coF6AA
Na, az AMD ugyanúgy trükközik ezzel az "effektív" memóriasávszéllel. A 7600-as 128 bites buszon 18Gbps GDDR6-tal 288GB/s átvitelt jelent. Na, most oké tegyük fel, hogy elhisszük, hogy a cache-sel együtt ez tényleg effektív 476GB/s. Viszont ez csak 60GB/s több, mint a 6600, viszont a 7600 meg több mint 2x erősebb TFLOPS-ilag. Mégis hogy nem fogja ezt visszafogni a memsávszél? :O
jaj hogy szakadnának meg ezzel az effektív sávszélességgel. annak a marketingesnek aki kitalálta meg aki átvette a másik oldalon a fizetését is effektív dollárban adnám.
Nem releváns, más területen flangál. HWUnboxed-ék Hogsmead-ben (a legterhelőbb location a játékban) mászkálnak fel-alá egy szakaszon, így minden kártyával azonosak a tesztkörülmények játékon belül.
Amit linkeltél ott tippre a 3070 olyan 75 FPS átlag lenne ez alapján 1440p-ben.
Plusz az első hozzászólás a videó készítőjétől:
the RTX 4060 TI in this video is overclocked, and increased the power limite to squeeze more performance out of this slow gpu
Egyre jobb! :D
Ráadásként, arra ugye emlékszünk, hogy az Ngreedia eredeti tervei alapján ez lett volna a 4070? :D
Az egész 4xxx széria egy vicc eddig.
...de nem baj, nemsokára jöhet az újabb poén csomag, amikor is az AMD adja majd ki a 7xxx széria új tagjait ugyancsak 128 bites sávszélességgel :D
Amúgy kicsit más téma de nagyon szívesen vettem volna 6800xt-t a 3070 helyett, de amikor megláttam, mennyivel jobb a DLSS minősége 1080p-s monitoron, mint az FSR, sajnos nem volt kérdés (plusz rt perf.). Ha most kellene gpu-t vennem, fogalmam sincs mit vennék. Ilyen árakon, ilyen otvar, kevés vram-os, megcsonkított vram busz sávszélességű, atcimkezett szarokat eszem ágában nem lenne. AMD meg nálam, mint említettem, kilőve, mert szörnyű amit az RT frontján csinálnak (mi a francert nem tudnak dupla annyi feldolgozó egységet beépiteni?!). Marad az Intel .. (:DDD)
Leírtál egy érdekes dolgot, miszerint még nincs olyan GPU cryptocoin, aminek a minél több VRAM számít bányászathoz... csak nehogy...
"Aztakibebaszott eget, lett egy matchem Tinderen"
Másfél hete futottam bele olyan videóba, hogy Intel ARC 770-en némi bűvészkedéssel 3x-os hash rate érhető el egy bizonyos feltörekvő Coin bányászásánál, de csak a 16GB-os verzióval működik. :P
A Battale Mage meg pletykák szerint 24 és 32GB kiszerelésbe jön majd ki.
olyan viszont már van aminek minél nagyobb ssd kell és minimális proci erő :)
*HDD .. Chia, és egy orbitális scam volt :D
@Komplikato:
melyik coinrol lenne szó? :D
Szerk:
NVM, megvan, Dynex
"Aztakibebaszott eget, lett egy matchem Tinderen"
Akartam írni, hogy a 192 bit miatt nem menne rá a 16GB ram, erre rákerestem a nyák képére, és bizony Asus ROG képen látszik, hogy ugyan az a nyák, mint a 4080 és ott figyel két üres ram foglalat. Olyan tipp már volt, miszerint majd 4070 Super néven lesz 16GB verzió.
Dynex, az életben se hallottam róla.
Ahogy nézem a price history-t meg a volume-ot, nem törekszik az sehova :D
"Aztakibebaszott eget, lett egy matchem Tinderen"
Vagy 128 bites lesz 4060Ti lesz, és visszafogja majd a sávszél? :O
Chief Exorcist
A memória sávszéllessége meg a CUDA/Tensor szám is kisebb, mint az RTX 3060/3060Ti elődnek.
Azon gondolkoztam, milyen fura, hogy a GPU-k elkezdtek ilyen általános célú szoftveres feldolgozás felé menni, arra számítottam, hogy előbb-utóbb a raszterizálásra használt dedikált hardverek is kikerülnek belőlük (asszem az UE5 legalábbis részben már szoftveresen raszterizál compute shaderrel??), aztán most megint egyre több a dedikált hardver - Tensor magok, RT magok, meg ki tudja még micsoda.
Semmi különösebb oka nincs, hogy ezt most leírtam, csak valahogy eszembe jutott :))
Chief Exorcist
sokkal nagyobb probléma (nekem), hogy érdektelenné vált az egész. mindig is az volt az érdekes a realtime grafikában, hogy okos tech trükköket kellett alkalmazni. ennek lassan vége :)
na persze még most is érdekes dolgok vannak, de egyre kevesebb...
Ott van a trükk :)) 128 bites lesz az sztem, ahogy gondoltam, csak a nagy L2 cache miatt odaírják, hogy effektíve a duplája. Még a press release-ben is kiemelik :)
The RTX 4060 Ti's memory subsystem features 32 MB of L2 cache and 8 GB or 16 GB of ultra-high speed GDDR6 memory. The RTX 4060 has 24 MB of L2 cache with 8 GB of GDDR6. The L2 cache reduces demands on the GPU's memory interface, ultimately improving performance and power efficiency.
Nyilvan impresszív ez az L2, de hát azért kíváncsi leszek.
rwurl=https://imgur.com/a/AiiREqP
Chief Exorcist
Haha. Marketing olcsóbb mint a dupla szélességű busz.
A vicc, hogy a cache memória ára sok-sokszorosa a sima gddr6 -é. Ha jól számítom, olcsóbb lenne 16GB de akár 24GB gddr6 -tal mindegyik 4xxx -es kártya (mondjuk 4mb cache-el), 256 vagy 384 bites sávval, mint ilyen nagy cache-el.
De hát sokkal kevesebbet fogyasztanak mint a 3xxx gen! Persze, mondhatnánk, csak Ngreedia itt is bejátszott egy nagyon durva dolgot:
Eddig minden gen. váltáskor nagyobb volt a teljesítmény -beli különbség, pl. a 3070 a 2080Ti-t előzi pár %-kkal, de mégis sokkal kisebb fogyasztással.
Na most nem így van. Most a 4060Ti(!) lesz pariban a sima 3070-nel.
A fentiek alapján azt lehet mondani, hogy jó nagy átbaszás a 4x gen. Szóval konkrétan az Ngreedia minden tiert eggyel feljebb cimkézett (ezt már a 4070 és Ti változatnál is sejthettuk, de most már 120%), szoval amit kihoznak pl. 4060 néven az valójában egy 4050 kellene legyen, a 4070 meg egy 4060Ti. Persze, akkor nem lehetne ennyire rohadt drágán adni a tiereket.
Na ez a gusztustalan.
...meg az, hogy 2023-ban még kiadnak 8GB-os kártyákat úgy, hogy a játékipar most kezd átállni fullra a PS5 genre (16GB osztott memória, amiből általában min. 12GB van a gpu-nak osztva). Szóval csak elismerően tudok tapsolni mind az NV-nek, mind az AMD-nek, bár ha a pirosak kihoznak egy 7700XT-t 16GB VRAM-mal, akkor meg van bocsatva (350 USD áron).
"Aztakibebaszott eget, lett egy matchem Tinderen"
A nagy cache afaik az RT-nek kedvez kifejezetten, mert nagyon memsávszél igényesek az RT utasítások, szerintem az AMD se véletlenül ment erre, persze ott az L3 a nagy. Csak ettől még nem kéne ennyire cigánykodni a sávszéllel :)))
A konzolok kicsit bonyeszebb történet, mert az IO és a finomszemcsés memóriamenedzsment miatt ott valójában sokszorosa az "effektiv" memóriamennyiseg.
(sztem lehet részben ennek a levét isszák mostanában a PC-s portok)
Chief Exorcist
Én csak azt nem értem, hogy egy amúgy (viszonylag) normálisan működő multiplatform engine, mint az UE4 miért lett hirtelen ENNYIRE fos PC-n? Minden adott, hogy viszonylag kis munkával normálisan kezelje az erőforrásokat, de a fejlesztők valamit olyan szinten elkúrnak mostanság, hogy rossz nézni.
Kellene egy új Carmack a PC világnak, mert ez a folyamat szörnyű.
"Aztakibebaszott eget, lett egy matchem Tinderen"
Jah. Főleg azt nem értem, miért nem alap a shader precompile. Oké, hogy ha drivert frissítesz újra ki kell bírni azt a rettenetes 2 percet, de talán még mindig jobb az havi 1x mint a folyamatos stutter gameplay közben...
Chief Exorcist
Azért vigyázz ezzel a 2 perces kijelentéssel.
--watching at you, TLOU --
:D
"Aztakibebaszott eget, lett egy matchem Tinderen"
Mondjuk PS4-en a TLOU 2 simán a loadingra elvert perceket minden alkalommal, szóval 🤣
persze tök más a két jelenség, az 5400-as laptop HDD ennyit tud, de mindenesetre türelemre tanit 🤣
Chief Exorcist
Te ilyen woke lippsi szarokkal játszol? :D
"Aztakibebaszott eget, lett egy matchem Tinderen"
Értem a célzást, DE! :D
De, ameddig én jutottam benne (feléig se sztem, folytatni kéne valamikor), nekem nem tűnt túltolt woke szarnak. Igen, a lány leszbi benne, de például szerintem ez magyarázható azzal, hogy mennyi trauma érte már fiatalként / gyerekként. Azon kívül, hogy összeomlott az egész világ, ki tudja például, hogy mennyi férfi próbálta meg molesztálni, vagy simán csak bántani, amíg Joel nélkül kódorgott ki tudja hol? Ilyen lelki traumák simán okozhatják azt, hogy később valaki a saját neme felé fordul -- a hétköznapi életünkben ez lehet akár egy abuzív apa, vagy egy elhanyagoló, szeretetet nem mutató anya miatt is. És egyébként ezek azok az esetek is, amikor a "melegség" kezelhető, vagyis pszichoterápiával ezekből a traumákból ki lehet gyógyulni.
Egy szó mint száz: egy ilyen komoly történetben, ennyire felnőtt módon előadva ez belefér, sőt, történetileg akár indokolt is! A probléma, hogy túl vagyunk már szaturálva ezekkel a sok primitív szinten csakazértis betolt woke szarokkal, amiknek semmi értelme, és ezért rögtön egy skatulyábba helyezzük ezeket, ez pedig pont nagyon szar érzés lehet egy olyan történetírónak, aki pedig egyébként ezt komolyan gondolja.
És igen, bevallom, sztem a sorozatban is indokolt lehetett, profin volt megírva és adott esetben belefért a buzis epizód, csak kérdés, hogy kellett-e ilyen hosszan, illetve arról meg nem tehet az egészséges férfiember, hogy férfiak buziskodása kibaszott undorító látvány. :D
Chief Exorcist
Dajcsland MSRP árak:
GeForce RTX 4060 8 GB: Juli, 329 Euro (299 USD)
GeForce RTX 4060 Ti 8 GB: 24. Mai, 439 Euro (399 USD)
GeForce RTX 4060 Ti 16 GB: Juli, 549 Euro (499 USD)
Chief Exorcist
Na, erről beszéltem. Lusta fejlesztők, mesterségesen magas VRAM igények... Milyen érdekes, hogy a kezdeti felháborodás után csak meg lehetett ezt oldani... SOKKAL kevesebb VRAM használat, de ennek ellenére ugyanazon beállítási szinten magasabb felbontású textúrák:
rwurl=https://www.youtube.com/watch?v=L8bg9coF6AA
"Aztakibebaszott eget, lett egy matchem Tinderen"
Na, az AMD ugyanúgy trükközik ezzel az "effektív" memóriasávszéllel. A 7600-as 128 bites buszon 18Gbps GDDR6-tal 288GB/s átvitelt jelent. Na, most oké tegyük fel, hogy elhisszük, hogy a cache-sel együtt ez tényleg effektív 476GB/s. Viszont ez csak 60GB/s több, mint a 6600, viszont a 7600 meg több mint 2x erősebb TFLOPS-ilag. Mégis hogy nem fogja ezt visszafogni a memsávszél? :O
rwurl=https://www.techpowerup.com/img/wEUOyDcOVpMHJtjV.jpg
Chief Exorcist
jaj hogy szakadnának meg ezzel az effektív sávszélességgel. annak a marketingesnek aki kitalálta meg aki átvette a másik oldalon a fizetését is effektív dollárban adnám.
LOOL, 4060Ti :DD
rwurl=https://imgur.com/a/3n7DsFJ
400USD! NOICE!
dEHát a nAGy CachE!!!
"Aztakibebaszott eget, lett egy matchem Tinderen"
Itt 69 az átlag ugyanabban a gaméban.
https://youtu.be/UzUKhBns-vg?t=600
Nem releváns, más területen flangál. HWUnboxed-ék Hogsmead-ben (a legterhelőbb location a játékban) mászkálnak fel-alá egy szakaszon, így minden kártyával azonosak a tesztkörülmények játékon belül.
Amit linkeltél ott tippre a 3070 olyan 75 FPS átlag lenne ez alapján 1440p-ben.
Plusz az első hozzászólás a videó készítőjétől:
Egyre jobb! :D
Ráadásként, arra ugye emlékszünk, hogy az Ngreedia eredeti tervei alapján ez lett volna a 4070? :D
"Aztakibebaszott eget, lett egy matchem Tinderen"
Azért a 600 USD-s 4070 eredménye szerintem viccesebb, akár a 4060Ti-hez hasonlítom, akár a 4070 TI-hez.
Az egész 4xxx széria egy vicc eddig.
...de nem baj, nemsokára jöhet az újabb poén csomag, amikor is az AMD adja majd ki a 7xxx széria új tagjait ugyancsak 128 bites sávszélességgel :D
Amúgy kicsit más téma de nagyon szívesen vettem volna 6800xt-t a 3070 helyett, de amikor megláttam, mennyivel jobb a DLSS minősége 1080p-s monitoron, mint az FSR, sajnos nem volt kérdés (plusz rt perf.). Ha most kellene gpu-t vennem, fogalmam sincs mit vennék. Ilyen árakon, ilyen otvar, kevés vram-os, megcsonkított vram busz sávszélességű, atcimkezett szarokat eszem ágában nem lenne. AMD meg nálam, mint említettem, kilőve, mert szörnyű amit az RT frontján csinálnak (mi a francert nem tudnak dupla annyi feldolgozó egységet beépiteni?!). Marad az Intel .. (:DDD)
"Aztakibebaszott eget, lett egy matchem Tinderen"