Hozzászólások
Elsődleges fülek
Nem releváns, más területen flangál. HWUnboxed-ék Hogsmead-ben (a legterhelőbb location a játékban) mászkálnak fel-alá egy szakaszon, így minden kártyával azonosak a tesztkörülmények játékon belül.
Amit linkeltél ott tippre a 3070 olyan 75 FPS átlag lenne ez alapján 1440p-ben.
Plusz az első hozzászólás a videó készítőjétől:
the RTX 4060 TI in this video is overclocked, and increased the power limite to squeeze more performance out of this slow gpu
Egyre jobb! :D
Ráadásként, arra ugye emlékszünk, hogy az Ngreedia eredeti tervei alapján ez lett volna a 4070? :D
Na, erről beszéltem. Lusta fejlesztők, mesterségesen magas VRAM igények... Milyen érdekes, hogy a kezdeti felháborodás után csak meg lehetett ezt oldani... SOKKAL kevesebb VRAM használat, de ennek ellenére ugyanazon beállítási szinten magasabb felbontású textúrák:
rwurl=https://www.youtube.com/watch?v=L8bg9coF6AA
Vagyis a barna egy nagyon sötét naranccssárga.
És akkor a barna színt még meg se említettük, ami konkrétan nem létezik :D
Te ilyen woke lippsi szarokkal játszol? :D
Azért vigyázz ezzel a 2 perces kijelentéssel.
--watching at you, TLOU --
:D
Én csak azt nem értem, hogy egy amúgy (viszonylag) normálisan működő multiplatform engine, mint az UE4 miért lett hirtelen ENNYIRE fos PC-n? Minden adott, hogy viszonylag kis munkával normálisan kezelje az erőforrásokat, de a fejlesztők valamit olyan szinten elkúrnak mostanság, hogy rossz nézni.
Kellene egy új Carmack a PC világnak, mert ez a folyamat szörnyű.
A vicc, hogy a cache memória ára sok-sokszorosa a sima gddr6 -é. Ha jól számítom, olcsóbb lenne 16GB de akár 24GB gddr6 -tal mindegyik 4xxx -es kártya (mondjuk 4mb cache-el), 256 vagy 384 bites sávval, mint ilyen nagy cache-el.
De hát sokkal kevesebbet fogyasztanak mint a 3xxx gen! Persze, mondhatnánk, csak Ngreedia itt is bejátszott egy nagyon durva dolgot:
Eddig minden gen. váltáskor nagyobb volt a teljesítmény -beli különbség, pl. a 3070 a 2080Ti-t előzi pár %-kkal, de mégis sokkal kisebb fogyasztással.
Na most nem így van. Most a 4060Ti(!) lesz pariban a sima 3070-nel.
A fentiek alapján azt lehet mondani, hogy jó nagy átbaszás a 4x gen. Szóval konkrétan az Ngreedia minden tiert eggyel feljebb cimkézett (ezt már a 4070 és Ti változatnál is sejthettuk, de most már 120%), szoval amit kihoznak pl. 4060 néven az valójában egy 4050 kellene legyen, a 4070 meg egy 4060Ti. Persze, akkor nem lehetne ennyire rohadt drágán adni a tiereket.
Na ez a gusztustalan.
...meg az, hogy 2023-ban még kiadnak 8GB-os kártyákat úgy, hogy a játékipar most kezd átállni fullra a PS5 genre (16GB osztott memória, amiből általában min. 12GB van a gpu-nak osztva). Szóval csak elismerően tudok tapsolni mind az NV-nek, mind az AMD-nek, bár ha a pirosak kihoznak egy 7700XT-t 16GB VRAM-mal, akkor meg van bocsatva (350 USD áron).
NC csónak, abban van a legnagyobb hely belül, míg ND-ben az összes közül a legkisebb.
BTW NBFL ülésekkel elvileg nagyobb a hely (de magasságra kevesebb), bár sima NB-m van, emiatt csak a szóbeszédekre alapozom. Persze ja, te azért szélesebb vagy az átlagnál, aztán a biczkó kinyomja a kocsi oldalát :D
miata nem mérvadó, rengeteg múlik azon, hogy lábban vagy felsőtestben hosszú az ember. Van aki simán befér 185+-szal is ahogy mondod, van aki meg 180-nal is alig.
Ahogy nézem a price history-t meg a volume-ot, nem törekszik az sehova :D
*HDD .. Chia, és egy orbitális scam volt :D
@Komplikato:
melyik coinrol lenne szó? :D
Szerk:
NVM, megvan, Dynex
Leírtál egy érdekes dolgot, miszerint még nincs olyan GPU cryptocoin, aminek a minél több VRAM számít bányászathoz... csak nehogy...
az új 4070 kártyákon már a 4080-hoz gyártott GPU butítottja van
Ez azért érdekes, mert ha tényleg így van, akkor az Ngreedia készül egy 16GB-os 4070-re (vagy ez lesz a "Super"?), mivel a 4080-ra lehet pakolni 16GB-ot, de a mostani 4070-hez használt nyákra nem (kevesebb vram slot van rajta).
Érdekes, az biztos, kíváncsi vagyok mi lesz. Esetleg lehet, hogy tudnak valamit, amit mi nem? Úgy értve,hogy lehet, hogy az AMD is feljebb teszi a vram mennyiséget, és a mostani játék vram igény para miatt ezt nen hagyhatja szó nélkül a zöld oldal?
Sok a kérdés, majd meglátjuk mik lesznek a válaszok.
Az biztos,higy ha lesz 4070 16 GB vrammal 200K alatt, akkor megpályázok egyet, a mostani 3070-et meg elpasszolom 130K-ert (vagy 120-ert)
Én is így látom, ahogy nézek példákat.
While both methods produce the same output, interpolated strings offer more readable and maintainable code, as well as better performance in certain scenarios.
lol
Van más is a stringkolbászoláshoz c#-ban, mint a +? :D
A kérdés, hogy miben jobb az a módszer amit kitalaltak neked? Gyorsabb? Olvashatóbb? Vagy csak a szokásos "céges policy" mögé bújtatott hibásan bevett gyakorlat?
De amúgy kapaszkodj, nálunk a főni mssql-ben végzi el a strinkolbászolast, majd csak az eredményt húzza be a c#... na AZ! :DDD Elmenni DB-ig ahhoz amit 1 réteg is meg tud csinálni! Szép!
Nálam simán megy, pár kódot ma refactoringoltattam vele :D
Bármilyen joakarod aki kicsit is kompromittalni akarna. Nem gond, csak azt hittem nem vetted észre.
Szabadon látogatható, gugi bot is indexeli. Láthatja bárki.
Amúgy az megvan, hogy az Általános csevejben van ez a topik, nem pedig "máshol"? :D
Mindeközben a sima 3070 gddr6 -tal van felszerelve, illetve a konkurens 6700xt is, de utóbbi 12GB-os. Na akkor hogyan is van ez?
Egy ilyen tech kifejlesztése szvsz SOKKAL drágább, mint rádobni + X GB vramot a kártyákra.
Amugy AMD olcsóbban veszi a memóriát, hogy jut bőven, az amúgy olcsóbb kártyákra is? :D
Noice, mindig is buktam a masszív, sötét karszőrrel rendelkező "nőkre" :DD
rwurl=https://imgur.com/a/i2eWl56
rwurl=https://imgur.com/a/IREjzbT
Viszont a renderelése kb. 1.5x lassabb. Valamit valamiért, de így is meg lehet oldani, hogy nem akarnak rátoszni +5 USD kiadással extra VRAM-ot a kártyáikra :Đ
Plusz ugye ott van az is, hogy simán rámondja majd az Ngreedia, hogy ez a tech csak és kizárólag a 4xxx + szériával működik majd :D
Erről jut eszembe. Crysis 1 (NEM a remaster).
Ez egy 2008-as játék :Đ
rwurl=https://imgur.com/a/ky2uLpq
..mondjuk nyakon csaptam RT-vel :D
Ez meg egyszerűen nem igaz.
Lumen uses multiple ray-tracing methods to solve Global Illumination and Reflections. Screen Traces are done first, followed by a more reliable method.
Lumen uses Software Ray Tracing through Signed Distance Fields by default, but can achieve higher quality on supporting video cards when Hardware Ray Tracing is enabled.
https://docs.unrealengine.com/5.0/en-US/lumen-technical-details-in-unreal-engine/
Nem feltétlen UE4-ből, inkább arra gondolok, hogy OK, jelenleg külső "plugin" módon léteznek a fenti RT funkciók, de a célja az az Epic-nek szerintem, hogy ezeket a proprietary szarokat (khm... nvidia) kivezessék, és saját, teljes körü Ray Tracing rendszert készítsenek az UE5-höz, amik nyilván sokkal jobb teljesítménnyel / látvánnyal fognak funkcionálni, mint a mostani módi, mivel szerver része lesz az engine-nek, és hát ugye nem úgy lesznek megírva, hogy az Nvidia -féle RT magoknak kedvezzen, hanem úgy, hogy elfusson mindenen. Lásd: Lumen mostani állapota :D
Az egész 4xxx széria egy vicc eddig.
...de nem baj, nemsokára jöhet az újabb poén csomag, amikor is az AMD adja majd ki a 7xxx széria új tagjait ugyancsak 128 bites sávszélességgel :D
Amúgy kicsit más téma de nagyon szívesen vettem volna 6800xt-t a 3070 helyett, de amikor megláttam, mennyivel jobb a DLSS minősége 1080p-s monitoron, mint az FSR, sajnos nem volt kérdés (plusz rt perf.). Ha most kellene gpu-t vennem, fogalmam sincs mit vennék. Ilyen árakon, ilyen otvar, kevés vram-os, megcsonkított vram busz sávszélességű, atcimkezett szarokat eszem ágában nem lenne. AMD meg nálam, mint említettem, kilőve, mert szörnyű amit az RT frontján csinálnak (mi a francert nem tudnak dupla annyi feldolgozó egységet beépiteni?!). Marad az Intel .. (:DDD)