Van valakinek tippje, hogy mi történt a használt VGA piaccal?
Hirtelen a PH-n megjelent egy pár HD7850 20-25K, HD7870 28-31K áron, miközben egyesek a 280/280X kártyát 60K áron próbálják elsózni, de ez mellett láttam 7970-et 50K és 290X 60K áron. Ennek köze lehet ahhoz az MS nyilatkozathoz, hogy jelenleg NINCS piacon teljes DX12 támogatású VGA? vagy csak ennyien állnak át a konkurenciához?
Semmi ilyesmi. A HD7850/7870-ek azért mennek ennyiért, mert az még a nagy litecoin farm idején lettek vásárolva és túlkínálat van belőlük + már ennyi idősek.
Az olcsó 290 pedig azért ennyi, mert nincs rá gari + refhűtős.
Az viszont lehet, hogy sokan most cserélik a vgajukat... Bár 280/290-el én biztos megvárnám a jövő évi szériát, de hát ők tudják.
Ez azért eléggé HW rasszista szöveg, ahogy néztem a PH-n már pár arc szerzett Fury X-et, nem vártak a minire. Persze most ottani topikok totális vallási témává fajultak, ki mit hisz el a marketing rizsából alapon. A mérsékelt emberkék meg a nekik már meglévő kellemes DX11 vas cseréjével megvárják a DX12 játékok burjánzását és mindkét gyártó KÖVETKEZŐ termékét, amik talán már teljes DX12 támogatással bírnak. Ettől még közép mezőnyben és fogyasztásban sokkal jobb az NVidia jelenleg. Meglátjuk csóri AMD megéli e a 14/16 nanométer előnyeit a következő generációnál. Szomorú lennék ha egy szereplős lenne a piac. Sőt jobban csípném a PowerVR visszatérne a hadszíntérre. De nem fog sajnos.
Ezek egy része a Fury-t várta mint a Messiást, most, hogy már lehullott a lepel mindenről, vesznek valamit (a többség NV-t).
Szerintem is túlreagálta, de azért finomabban, itt semmiképpen sem akarok olyan szintű sárdobálást, mint ami PH-n van. (többek között ezért se járok ott semmilyen vga topikba)
Hát NV vs. AMD mellékzönge egyáltalán nem volt benne (legalábbis szándékosan), a HBM-t és az új lapkát sok AMD tulaj várta, hogy válthasson valami újra (és ne egy átnevezett valamire), aztán mindenki eldönthette, hogy marad piros, vagy bezöldül. :) Az eladási listákat egyérteműen az NV vezeti, ezzel nem nagyon lehet vitatkozni. Nekem nagyon nem szimpatikus a cég és munkássága, úgyhogy kizárásos alapon folytattam az elmúlt 8 év tendenciáját, és maradtam az AMD oldalán.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
"Look at you, hacker. A pathetic creature of meat and bone. Panting and sweating as you run through my corridors. How can you challenge a perfect immortal machine?" - Shodan
Sajnos ebben a 40ezres árkategóriában lévő (Z170) lapok biosa (még?) nem túl jó (ami azért szégyen), így egyelőre tuning szempontjából megrekedtem 4 GHz-en, meg azért figyelni kell, mit hova állít az ember, de amúgy jó.
Dio3 fix 60 fps (akár 4 playeres level55 GR-ben is, két HT WD mellett is), Carma: reincarnation szintén, mást meg még nem volt igazán időm próbálni :D
Majd a sok AI-s supcomra leszek kíváncsi, meg 1-2 újabb játékra, de az majd csak idővel...
az lenne a kérdésem a kollégákhoz, hogy használ e valaki több videókártyát egyszerre a gépében?
megéri?
mikre kell odafigyelni? csak két teljesen azonos típusú kártyával érdemes próbálkozni, vagy lehet eltérő újabb/régebbi erősebb/gyengébb vga kártya kombókkal is egy kis pluszra szert tenni?
vagy egy gyengébb kártya, csak lehúzza a másiknak is a teljesítményét?
"Look at you, hacker. A pathetic creature of meat and bone. Panting and sweating as you run through my corridors. How can you challenge a perfect immortal machine?" - Shodan
+1, hagyd. Sajnos sokkal jobban megéri ugyanannyiért venni egy VGA-t, ha tudsz. A két videokártya brutális fogyasztással, hangzavarral, hűtési gondokkal jár, plusz kompatibilitási gondokkal még mindig. Az fps se 2*ese az egy kártyáénak. Jah, és sajnos megjő a jitter is.
Egyébként gyártója válogatja, elvileg 2 ugyanolyan chipes kártyát használhatsz, illetve AMD-nek volt hbrid crossfire-je, amivel gyengébb + erősebb kártya dolgozott egyszerre, de csak bizonyos kombókban, és asszem csak a 6*** szériában. Nvidiánál asszem nincs hasonló. A memória régebbenúőgy volt, hogy a kisebb kártya visszafogta a nagyobbat, tehát ha egyik 4, a másik 2 gigás, akkor csak 2 gigát használt.
Használtam egy ideig 2*4850-est, aztán 9 napon belül visszavittem a másodikat, eladtam az elsőt és vettem egy 6850-est. Ezt ajánlom inkább.
Kb akkor tudom elképzelni, ha nem fér már monitor az egy kártyádra, (vagy nincs olyan csati ami kéne) viszont arra is van jobb megoldás általában. :D
Felejtős, hacsak nem az a problémád, hogy a kedvenc gyártód csúcskártyája csücsül a gépedben, és nem elég a teljesítmény. :) Egy nagyobb kártyával jobban jársz. Árnymedvének volt amúgy több kártya a gépében, de ő meg eltűnt, mint Petőfi.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
igazából annyira nem pörögtem rá a témára, csak mindig piszkálta a fantáziámat, hogy mire is jó ez az egész, de végül mindig az a konklúzió, hogy nagyobb a füstje mint a lángja.
gondolom ezt is csak high-end szinten érdemes űzni, mikor már nincs drágább vga a piacon de még akarunk költeni a gépre, akkor tegyünk bele kettőt, meg hármat...
meg ugye volt bennem egy ilyen halovány hiú ábránd is, hogy ha van egy új kártyám, meg egy régebbi, de még mindig jól működő, akkor a kettőből egy pattintással kinyerhetek némi plusz lóerőt, kvázi ingyen. de nem.
"Look at you, hacker. A pathetic creature of meat and bone. Panting and sweating as you run through my corridors. How can you challenge a perfect immortal machine?" - Shodan
mindig piszkálta a fantáziámat, hogy mire is jó ez az egész
képzeld el, hogy beír egy gamer vmelyik gyártóhoz, hogy annyi pénze van mint a tenger, de nem tudja elkölteni semmi szinte teljesen haszontalanra, hogy kitűnjön a tömegből
ha GPU gyártó lennél, égne a pofádon a bőr, hogy nem tudsz neki megfelelő zsákot nyújtani, hogy figyelj apám, ide öntsd a pénzt és kapsz egy matricát, hogy menő vagy.
Állítólag 2-es SLI-nél van úgy kb. 30% teljesítménynövekedés. 4-es SLI is van, bár sztem akkor le kell rögzíteni Hiltivel a házat, hogy ne szálljon fel. :D Viszont nagyon menő leszel, és ezt utcákkal arréb is hallani fogja mindenki.
Ezt vártuk. Az azért nem rossz, hogy 1-2% híján hozza a sima fury-t.
Sajnos a 649 $/Euros ár is maradt, ami azért mindenképpen szomorú.
Egyébként 329 $/euroért lehet venni ITX képes GTX 970-et, ami azért mindenképpen jobb vétel.
Elnézve a webshopok raktárkészletét, olybá tűnik, hogy még mindig nem sikerül elegendő mennyiséget gyártani a Fury szériából.
Ez sajnos így 2 fail egy winre. Bízom benne, hogy még kihúzza a következő szériáig az AMD, és villant valami tényleg nagyot.
Amit itt a többség szajkóz, az egy sok éves beragadt hülyeség, ami anno igaz volt, de ma már közel sem az. Sőt!
Optimális esetben az egy nagy helyett két kicsi már nagyon is racionális. (Amennyiben az ember lenyeli az esetleges apróbb kellemetlenségeket.)
[Kizárólag teljesen azonos kártyákkal van értelme próbálkozni, még adott gyártón és típuson belüli kivitelben is - ezzel minimalizálva az esetleges bugokat és stb.]
Manapság már nagyon jól tudnak együtt működni, így két kicsi összerakása több szempontból megérheti:
- sokkal halkabb lehet, ha jól csinálja az ember
- jóval kisebb helyen elférhet ugyan az a teljesítmény (hiszen fele olyan hosszú és széles a kisebb kártya)
- adott variációban jóval kisebb lesz az értékvesztése (hiszen az aktuális felső kategória veszít mindig messze a legtöbbet az értékéből), míg azonos teljesítményt kapsz
A tökéletes példa: GTX950×2
Max. terhelésen 26dB, míg az ezzel azonos teljesítményű 970/980 még a legeslegjobb változatban is min. 30dB. (950×2 120k / 970 120k / 980 180k)
Ehhez jár egy átlagosan a kettő közötti teljesítmény.
De az is látszik, hogy ez nagyban függ az adott játéktól: Ha figyeltek rá, lásd FarCry, akkor überkirály, simán hozza a jóval drágább 980 szintjét.
Ha nem, lásd Mordor, akkor meg mintha nem is lenne kettő, csak egy. De az esetek nagy többségében bőven hozza az elvárható szintet.
Tehát összeségében megérheti, de máig stabilabb és kiegyensúlyozottabb az egy erős kártya, vagyis egyszerű és kényelmes halandónak még mindig kézenfekvőbb az egy kártya.
De már csak kedv kérdése a kettő, nem értelmetlen és védhetetlen faszság.
// Szvsz meg ~70 ezernél többet költeni VGA-ra színtiszta pénzkidobás.
Példa: A procim máig egy Q9400@3,2 Ghz (2008-ból, 775-s foglalat, hozzá DDR2-es ramok ;) ). Nem mondom, ma már el tud fogyni itt-ott, de simán elvisz bármit.
Közben legalább 5× váltottam VGA-t. Az akkori legdrágább mai szemmel egy áramzabáló, rakéta hangú fostaliga, egy kalap szar. De a 2012-es csúcskategória is egy vicc.
Szóval míg procit lehet sok évre előre venni (főleg mert annyival előrébb jár minden másnál, hogy a többség tök feleslegesen cseréli le a pár évest), addig VGA-t nem tudsz előre venni.
Csak lapátolod ki a pénzt az ablakon és igazából lófaszt se kapsz érte.
Ha össze kéne egyetlen mondatba foglalni a lényeget: Senkinek nincs szüksége 60 fps-nél többre, ezt pedig 120 ezerért is megkapod, nem kell hozzá 2-3-400 ezret elkölteni. (Jah, és a 120 ezres kártya jövőre 80-at ér, a 300 ezres meg 120-at.)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Grifter írta: Szóval míg procit lehet sok évre előre venni (főleg mert annyival előrébb jár minden másnál, hogy a többség tök feleslegesen cseréli le a pár évest), addig VGA-t nem tudsz előre venni.
Csak lapátolod ki a pénzt az ablakon és igazából lófaszt se kapsz érte.
A prociban egyetértünk (az enyém 2010-es, és egyetlen játékban sem ütköztem még CPU limitbe), de VGA-t is lehet hosszabb távra venni, felesleges évente cserélni. Csak hát nem mindegy, hogy kitől, mikor és mit veszel, de az egész nagyban függ attól, hogy milyen grafikai teljesítményre van igényed.
Grifter írta: Ha össze kéne egyetlen mondatba foglalni a lényeget: Senkinek nincs szüksége 60 fps-nél többre, ezt pedig 120 ezerért is megkapod, nem kell hozzá 2-3-400 ezret elkölteni. (Jah, és a 120 ezres kártya jövőre 80-at ér, a 300 ezres meg 120-at.)
A 60 FPS addig igaz, amíg oldschool 60 Hz monitorral nyomod. A technika azért ezen már túlmutat, 144 Hz-en egészen más a világ (amíg nem látod élőben, addig nem tudod), oda meg mehet a sok-sok FPS. :) Nem beszélve arról, hogy ha 4K-n vagy több monitoron tolod, akkor a 60 FPS-t egy rakat játékban csak csúcskártyával éred el, vagy még azzal se, 120 rugóért csak képregényt kapsz. Úgyhogy nem igazán lehet kijelenteni, hogy X összegnél többet felesleges kilöteni, mert nem lehet tudni, ki milyen körülmények között óhajt játszani. :)
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Főleg annak tekintetében vicces ez a "nem kell 60-nál több", hogy ha a mai játékon pont 60, holnap, jövő hónapban, vagy legjobb esetben jövőre már csak 50 lesz az az fps... de ennyire előre gondolkodni persze luxus.
A dB értékeket hagyjuk, a legtöbb tuningoldal mérése egyszerűen használhatatlan, inkonzisztens. Változó körülmények, rendszerelemek, terhelés, hőmérséklet, stb... nagyságrendileg használhatóak, de 4 dB az bőven a mérési hibahatáron belül van.
Nem lehet. Csak kurva sok pénzt kidobni az ablakon, azt lehet. Teljesen mind1 kitől mikor és mit veszel, ha a következő generáció 30-50%-al többet tud minden évben.
A 60 FPS addig igaz, amíg oldschool 60 Hz monitorral nyomod.
Jogos: Ha elköltesz tökértelmetlen 200 ezret egy monitorra (ami vagy 144Hz, vagy 4K, mert ha mindkettő, akkor meg 400 ezer), akkor nyugodtan elkölthetsz tökértelmetlen 300-600 ezret egy VGA-ra is hozzá. Mert hát szted az annyival jobb. Mármint legalább ötször olyan jó, mert ugye annyiva kerül többe.
Vagy egy nagy lófaszt, csak hülyét csinálsz magadból, mert a 2K és 4K közti különbség, ill. a 60 és 144Hz közti különbség kurvára nem ér meg fél-egy millió forintot. Majd amikor a 4K/144Hz-et dobják utánad 100 ezerért, és a VGA is egy 100-as lesz hozzá, majd akkor igen.
De te most árnyalati különbséggel indokolnál egy ÖTSZÖRÖS ráfordítást. Viccnek is rossz.
Szóval persze, ha van rá pénzed meg igényed, akkor hajrá. Csak nulla racionalitás van benne.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Igen, pont ezért nem érdemes megpróbálni olyan kártyát venni, ami 2 év múlva is tudja a 60fps-t. Veszel egy olyat, ami most tudja, és 2 év múlva megint egy olyat, ami akkor tudja pont azt, amire szükséged van. Minden más teljesen felesleges, ugyanis a kétszer olyan drága kártyát 2 év múlva egy fele akkora, fele annyit fogyasztó is kettéhúgyozza.
Tőlem te azt hagysz amit akarsz, a TE gépedet nem nekem kell hallgatnom ;)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Van valakinek tippje, hogy mi történt a használt VGA piaccal?
Hirtelen a PH-n megjelent egy pár HD7850 20-25K, HD7870 28-31K áron, miközben egyesek a 280/280X kártyát 60K áron próbálják elsózni, de ez mellett láttam 7970-et 50K és 290X 60K áron. Ennek köze lehet ahhoz az MS nyilatkozathoz, hogy jelenleg NINCS piacon teljes DX12 támogatású VGA? vagy csak ennyien állnak át a konkurenciához?
Semmi ilyesmi. A HD7850/7870-ek azért mennek ennyiért, mert az még a nagy litecoin farm idején lettek vásárolva és túlkínálat van belőlük + már ennyi idősek.
Az olcsó 290 pedig azért ennyi, mert nincs rá gari + refhűtős.
Az viszont lehet, hogy sokan most cserélik a vgajukat... Bár 280/290-el én biztos megvárnám a jövő évi szériát, de hát ők tudják.
Ezek egy része a Fury-t várta mint a Messiást, most, hogy már lehullott a lepel mindenről, vesznek valamit (a többség NV-t).
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Ez azért eléggé HW rasszista szöveg, ahogy néztem a PH-n már pár arc szerzett Fury X-et, nem vártak a minire. Persze most ottani topikok totális vallási témává fajultak, ki mit hisz el a marketing rizsából alapon. A mérsékelt emberkék meg a nekik már meglévő kellemes DX11 vas cseréjével megvárják a DX12 játékok burjánzását és mindkét gyártó KÖVETKEZŐ termékét, amik talán már teljes DX12 támogatással bírnak. Ettől még közép mezőnyben és fogyasztásban sokkal jobb az NVidia jelenleg. Meglátjuk csóri AMD megéli e a 14/16 nanométer előnyeit a következő generációnál. Szomorú lennék ha egy szereplős lenne a piac. Sőt jobban csípném a PowerVR visszatérne a hadszíntérre. De nem fog sajnos.
???
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Erre írta szerintem:
Szerintem is túlreagálta, de azért finomabban, itt semmiképpen sem akarok olyan szintű sárdobálást, mint ami PH-n van. (többek között ezért se járok ott semmilyen vga topikba)
Hát NV vs. AMD mellékzönge egyáltalán nem volt benne (legalábbis szándékosan), a HBM-t és az új lapkát sok AMD tulaj várta, hogy válthasson valami újra (és ne egy átnevezett valamire), aztán mindenki eldönthette, hogy marad piros, vagy bezöldül. :) Az eladási listákat egyérteműen az NV vezeti, ezzel nem nagyon lehet vitatkozni. Nekem nagyon nem szimpatikus a cég és munkássága, úgyhogy kizárásos alapon folytattam az elmúlt 8 év tendenciáját, és maradtam az AMD oldalán.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
apropó, hogy muzsikál az új gép?
"Look at you, hacker. A pathetic creature of meat and bone. Panting and sweating as you run through my corridors. How can you challenge a perfect immortal machine?" - Shodan
Meg vagyok vele elégedve nyilván :D
Sajnos ebben a 40ezres árkategóriában lévő (Z170) lapok biosa (még?) nem túl jó (ami azért szégyen), így egyelőre tuning szempontjából megrekedtem 4 GHz-en, meg azért figyelni kell, mit hova állít az ember, de amúgy jó.
Dio3 fix 60 fps (akár 4 playeres level55 GR-ben is, két HT WD mellett is), Carma: reincarnation szintén, mást meg még nem volt igazán időm próbálni :D
Majd a sok AI-s supcomra leszek kíváncsi, meg 1-2 újabb játékra, de az majd csak idővel...
az lenne a kérdésem a kollégákhoz, hogy használ e valaki több videókártyát egyszerre a gépében?
megéri?
mikre kell odafigyelni? csak két teljesen azonos típusú kártyával érdemes próbálkozni, vagy lehet eltérő újabb/régebbi erősebb/gyengébb vga kártya kombókkal is egy kis pluszra szert tenni?
vagy egy gyengébb kártya, csak lehúzza a másiknak is a teljesítményét?
"Look at you, hacker. A pathetic creature of meat and bone. Panting and sweating as you run through my corridors. How can you challenge a perfect immortal machine?" - Shodan
Hagyd a fenébe.
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
+1, hagyd. Sajnos sokkal jobban megéri ugyanannyiért venni egy VGA-t, ha tudsz. A két videokártya brutális fogyasztással, hangzavarral, hűtési gondokkal jár, plusz kompatibilitási gondokkal még mindig. Az fps se 2*ese az egy kártyáénak. Jah, és sajnos megjő a jitter is.
Egyébként gyártója válogatja, elvileg 2 ugyanolyan chipes kártyát használhatsz, illetve AMD-nek volt hbrid crossfire-je, amivel gyengébb + erősebb kártya dolgozott egyszerre, de csak bizonyos kombókban, és asszem csak a 6*** szériában. Nvidiánál asszem nincs hasonló. A memória régebbenúőgy volt, hogy a kisebb kártya visszafogta a nagyobbat, tehát ha egyik 4, a másik 2 gigás, akkor csak 2 gigát használt.
Használtam egy ideig 2*4850-est, aztán 9 napon belül visszavittem a másodikat, eladtam az elsőt és vettem egy 6850-est. Ezt ajánlom inkább.
Kb akkor tudom elképzelni, ha nem fér már monitor az egy kártyádra, (vagy nincs olyan csati ami kéne) viszont arra is van jobb megoldás általában. :D
Felejtős, hacsak nem az a problémád, hogy a kedvenc gyártód csúcskártyája csücsül a gépedben, és nem elég a teljesítmény. :) Egy nagyobb kártyával jobban jársz. Árnymedvének volt amúgy több kártya a gépében, de ő meg eltűnt, mint Petőfi.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
igazából annyira nem pörögtem rá a témára, csak mindig piszkálta a fantáziámat, hogy mire is jó ez az egész, de végül mindig az a konklúzió, hogy nagyobb a füstje mint a lángja.
gondolom ezt is csak high-end szinten érdemes űzni, mikor már nincs drágább vga a piacon de még akarunk költeni a gépre, akkor tegyünk bele kettőt, meg hármat...
meg ugye volt bennem egy ilyen halovány hiú ábránd is, hogy ha van egy új kártyám, meg egy régebbi, de még mindig jól működő, akkor a kettőből egy pattintással kinyerhetek némi plusz lóerőt, kvázi ingyen. de nem.
"Look at you, hacker. A pathetic creature of meat and bone. Panting and sweating as you run through my corridors. How can you challenge a perfect immortal machine?" - Shodan
Mezei felhasználóknak felesleges, inkább tuningbetyároknak való az sli/crossfire
képzeld el, hogy beír egy gamer vmelyik gyártóhoz, hogy annyi pénze van mint a tenger, de nem tudja elkölteni semmi szinte teljesen haszontalanra, hogy kitűnjön a tömegből
ha GPU gyártó lennél, égne a pofádon a bőr, hogy nem tudsz neki megfelelő zsákot nyújtani, hogy figyelj apám, ide öntsd a pénzt és kapsz egy matricát, hogy menő vagy.
Állítólag 2-es SLI-nél van úgy kb. 30% teljesítménynövekedés. 4-es SLI is van, bár sztem akkor le kell rögzíteni Hiltivel a házat, hogy ne szálljon fel. :D Viszont nagyon menő leszel, és ezt utcákkal arréb is hallani fogja mindenki.
Na így szvsz. :D
:)))
Parizer forever.
R9 Nano review:
http://www.eurogamer.net/articles/digitalfoundry-2015-amd-radeon-r9-nano...
Valahol a 390X és a R9 Fury közt, utóbbihoz közelebb. nVidiához hasonlítva sima 980 és Ti között, előbbihez közelebb.
Ezt vártuk. Az azért nem rossz, hogy 1-2% híján hozza a sima fury-t.
Sajnos a 649 $/Euros ár is maradt, ami azért mindenképpen szomorú.
Egyébként 329 $/euroért lehet venni ITX képes GTX 970-et, ami azért mindenképpen jobb vétel.
Elnézve a webshopok raktárkészletét, olybá tűnik, hogy még mindig nem sikerül elegendő mennyiséget gyártani a Fury szériából.
Ez sajnos így 2 fail egy winre. Bízom benne, hogy még kihúzza a következő szériáig az AMD, és villant valami tényleg nagyot.
Nem leszólásnak mondtam, egyetértek abban, hogy ilyen teljesítmény-koncentráció eddig nem volt elérhető. Csak hát jah, az ára....
Melyik a win?
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Amit itt a többség szajkóz, az egy sok éves beragadt hülyeség, ami anno igaz volt, de ma már közel sem az. Sőt!
Optimális esetben az egy nagy helyett két kicsi már nagyon is racionális. (Amennyiben az ember lenyeli az esetleges apróbb kellemetlenségeket.)
[Kizárólag teljesen azonos kártyákkal van értelme próbálkozni, még adott gyártón és típuson belüli kivitelben is - ezzel minimalizálva az esetleges bugokat és stb.]
Manapság már nagyon jól tudnak együtt működni, így két kicsi összerakása több szempontból megérheti:
- sokkal halkabb lehet, ha jól csinálja az ember
- jóval kisebb helyen elférhet ugyan az a teljesítmény (hiszen fele olyan hosszú és széles a kisebb kártya)
- adott variációban jóval kisebb lesz az értékvesztése (hiszen az aktuális felső kategória veszít mindig messze a legtöbbet az értékéből), míg azonos teljesítményt kapsz
A tökéletes példa: GTX950×2
Max. terhelésen 26dB, míg az ezzel azonos teljesítményű 970/980 még a legeslegjobb változatban is min. 30dB. (950×2 120k / 970 120k / 980 180k)
Ehhez jár egy átlagosan a kettő közötti teljesítmény.
De az is látszik, hogy ez nagyban függ az adott játéktól: Ha figyeltek rá, lásd FarCry, akkor überkirály, simán hozza a jóval drágább 980 szintjét.
Ha nem, lásd Mordor, akkor meg mintha nem is lenne kettő, csak egy. De az esetek nagy többségében bőven hozza az elvárható szintet.
Tehát összeségében megérheti, de máig stabilabb és kiegyensúlyozottabb az egy erős kártya, vagyis egyszerű és kényelmes halandónak még mindig kézenfekvőbb az egy kártya.
De már csak kedv kérdése a kettő, nem értelmetlen és védhetetlen faszság.
// Szvsz meg ~70 ezernél többet költeni VGA-ra színtiszta pénzkidobás.
Példa: A procim máig egy Q9400@3,2 Ghz (2008-ból, 775-s foglalat, hozzá DDR2-es ramok ;) ). Nem mondom, ma már el tud fogyni itt-ott, de simán elvisz bármit.
Közben legalább 5× váltottam VGA-t. Az akkori legdrágább mai szemmel egy áramzabáló, rakéta hangú fostaliga, egy kalap szar. De a 2012-es csúcskategória is egy vicc.
Szóval míg procit lehet sok évre előre venni (főleg mert annyival előrébb jár minden másnál, hogy a többség tök feleslegesen cseréli le a pár évest), addig VGA-t nem tudsz előre venni.
Csak lapátolod ki a pénzt az ablakon és igazából lófaszt se kapsz érte.
Ha össze kéne egyetlen mondatba foglalni a lényeget: Senkinek nincs szüksége 60 fps-nél többre, ezt pedig 120 ezerért is megkapod, nem kell hozzá 2-3-400 ezret elkölteni. (Jah, és a 120 ezres kártya jövőre 80-at ér, a 300 ezres meg 120-at.)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
A prociban egyetértünk (az enyém 2010-es, és egyetlen játékban sem ütköztem még CPU limitbe), de VGA-t is lehet hosszabb távra venni, felesleges évente cserélni. Csak hát nem mindegy, hogy kitől, mikor és mit veszel, de az egész nagyban függ attól, hogy milyen grafikai teljesítményre van igényed.
A 60 FPS addig igaz, amíg oldschool 60 Hz monitorral nyomod. A technika azért ezen már túlmutat, 144 Hz-en egészen más a világ (amíg nem látod élőben, addig nem tudod), oda meg mehet a sok-sok FPS. :) Nem beszélve arról, hogy ha 4K-n vagy több monitoron tolod, akkor a 60 FPS-t egy rakat játékban csak csúcskártyával éred el, vagy még azzal se, 120 rugóért csak képregényt kapsz. Úgyhogy nem igazán lehet kijelenteni, hogy X összegnél többet felesleges kilöteni, mert nem lehet tudni, ki milyen körülmények között óhajt játszani. :)
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Főleg annak tekintetében vicces ez a "nem kell 60-nál több", hogy ha a mai játékon pont 60, holnap, jövő hónapban, vagy legjobb esetben jövőre már csak 50 lesz az az fps... de ennyire előre gondolkodni persze luxus.
A dB értékeket hagyjuk, a legtöbb tuningoldal mérése egyszerűen használhatatlan, inkonzisztens. Változó körülmények, rendszerelemek, terhelés, hőmérséklet, stb... nagyságrendileg használhatóak, de 4 dB az bőven a mérési hibahatáron belül van.
rwurl=http://i.imgur.com/G9PqTdB.jpg
Hát a teljesítmény/fogyasztás aránya.
Ja, oké, azt hittem a 3 Fury-ból valamelyik.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Nem lehet. Csak kurva sok pénzt kidobni az ablakon, azt lehet. Teljesen mind1 kitől mikor és mit veszel, ha a következő generáció 30-50%-al többet tud minden évben.
Jogos: Ha elköltesz tökértelmetlen 200 ezret egy monitorra (ami vagy 144Hz, vagy 4K, mert ha mindkettő, akkor meg 400 ezer), akkor nyugodtan elkölthetsz tökértelmetlen 300-600 ezret egy VGA-ra is hozzá. Mert hát szted az annyival jobb. Mármint legalább ötször olyan jó, mert ugye annyiva kerül többe.
Vagy egy nagy lófaszt, csak hülyét csinálsz magadból, mert a 2K és 4K közti különbség, ill. a 60 és 144Hz közti különbség kurvára nem ér meg fél-egy millió forintot. Majd amikor a 4K/144Hz-et dobják utánad 100 ezerért, és a VGA is egy 100-as lesz hozzá, majd akkor igen.
De te most árnyalati különbséggel indokolnál egy ÖTSZÖRÖS ráfordítást. Viccnek is rossz.
Szóval persze, ha van rá pénzed meg igényed, akkor hajrá. Csak nulla racionalitás van benne.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Igen, pont ezért nem érdemes megpróbálni olyan kártyát venni, ami 2 év múlva is tudja a 60fps-t. Veszel egy olyat, ami most tudja, és 2 év múlva megint egy olyat, ami akkor tudja pont azt, amire szükséged van. Minden más teljesen felesleges, ugyanis a kétszer olyan drága kártyát 2 év múlva egy fele akkora, fele annyit fogyasztó is kettéhúgyozza.
Tőlem te azt hagysz amit akarsz, a TE gépedet nem nekem kell hallgatnom ;)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
rwurl=http://static4.fjcdn.com/thumbnails/comments/Cover+me+porkins+_fb6004506...
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw