related: egy éve vettem légkondit, és a boltban egyáltalán nem értették, amikor a biztonságról kérdeztem őket az akkor sok klímához épp ajándékba adott netes távirányító/automatizáló cuccal kapcsolatosan. Betanult szövegként ismételték, hogy a mac-címeket le lehet tiltani. Amikor megemlítettem, hogy neten nem megy az át, látszott, hogy elakadt az algoritmus a fejükben.
Using micro-motor powered nanobots propelled by gas bubbles made from a reaction with the contents of the stomach in which they were deposited, these miniature machines have been successfully deployed in the body of a live mouse.
Mármint néhány processzor túlhajtásának, és azoknak is csak akkor, ha frissül az alaplapi BIOS, ami nyilván nem kötelező. A k-s processzorok továbbra is bőven megérik azt kis felárat, amivel full legálba/gari alatt lehet tolni föl a gigaherceket.
Anandtech's testing did throw up an interesting tidbit about CPU performance and dual-GPUs, though, namely that at High settings at 4K, Ashes is actually CPU limited not GPU limited—a surprising result given it used a beefy six-core processor with hyperthreading for its tests. The increased amount of time the CPU needs to spend synchronising the GPUs is likely to blame, and only at Extreme settings did the GPUs once again become the bottleneck to performance. Needing more than four cores to play games might happen sooner than expected.
Digging deeper, what we find is that even at 4K we’re actually CPU limited according to the benchmark data. Across all four multi-GPU configurations, our hex-core overclocked Core i7-4960X can only setup frames at roughly 70fps, versus 100fps+ for a single-GPU configuration.
The increased CPU load from utilizing multi-GPU is to be expected, as the CPU now needs to spend time synchronizing the GPUs and waiting on them to transfer data between each other. However dropping to 70fps means that Ashes has become a surprisingly heavy CPU test as well, and that 4K at high quality alone isn’t enough to max out our dual GPU configurations.
Az első fecske bétájából levonni következtetéseket azért elég vad.
Ez viszont vicces:
Even if you don't mix cards, using DX12's EMA over SLI yields benefits. PC World found that there was a 12 percent boost in performance by using EMA instead of SLI with two GTX 980s.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Nem nagy csoda ez, egy masszív egységszámmal operáló AAA RTS-ről beszélünk. Főleg hogy intelnél már pár éve "megállt" a fejlesztés. VGA oldalon még azért továbbra is megvan évente a +40-50% folyamatosan. Intel 7 év alatt nem tudott ennyit fejlődni (IPC-ben).
A Supcomnak is erősen javallott legalább 4 GHz-es 4 magos Sandy bridge. (de lehet úgy konfigurálni, hogy gyakorlatilag bármilyen procit megegyen - pld: 8 playeres skirmish, oldalanként 1000+ egységgel)
Pusztán azzal, hogy gpuboss-t linkelsz, már magadat égeted.
De amikor 2 generációnyi fisi-fosi AMD-re alapozod a nagy okosságodat, akkor minden hozzáértő tudtára adod ezzel, hogy fogalmad sincs.
Ha tippelni kell: örültél, hogy itt van újra Chiller és hozzá akartál szólni, csak nem tudtad elég jól kifejezni az örömödet. Szerintem ;)
A te történeted ugyanis első sorban a 7970 időtállóságáról szólna, aminek csak árnyéka a két későbbi generáció.
Lássuk inkább az Nvidia-t, ahol valóban fejlesztenek, meg előrelépés van és nem csak a füstcsavart tekergetik évek óta. (Hopp, egy autós utalás, google it!)
A spoiler most nem kellett volna, mert jó kedvemben vagyok. Csak annyit akartam hozzátenni, hogy (utána nézés nélkül) számomra hihető, amit írsz. Az egyetlen bibi vele, hogy a 980 sem mai gyerek tudtommal, tehát inkább egy jó szériát példáz, mint egy következetes folyamatot. - de bánom is én.
A füstcsavart nem kell amúgy googlozni, pénteken a P1-ben látni nem lehetett a sok TDI huszártól.
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
Mondjuk a GTX 780 nem igazan jo pelda, mert a 30-40%-os plusz teljesitmeny 30%-al magasabb aron is jott ki. Viszont a 980 eseten legalabb visszamentek 500 dollar kozelebe.
Sztem meg kár lenne elveszni ebben, mert akkor már nézni kell az árfolyamokat is, meg a reálértéket, meg hogy mikor volt természeti katasztrófa a távol-keleten, mikor hogy teljesített a gazdaság és stb. A statisztikai mindig azt hazudja, amit a készítője akar.
(Hiszen a 780-hoz képest akkor a 980 nem csak erősebb lett, hanem olcsóbb is, tehát kétszer akkora az előrelépés - már ha vki így akarja nézni.)
De az eredeti állítás, hogy a GPU-k sokkal rohamosabban fejlődnek, mint a CPU-k, az úgy hiszem nehezen cáfolható.
Míg az Intel kihoz egy tök ugyan annyit tudó, csak kisebb fogyasztással és jobb megoldásokkal operáló utódot, addig az Nvidia egy valódi szintet lép, erősebb lesz ÉS még jobb megoldásokkal és jóval kevesebb fogyasztással is párosul.
// Az AMD-t nem szerencsés belekeverni ebbe, mert szvsz mindkét esetben a konkurencia után kullognak évek óta, így egy nagyon bizarr és sok irányba súlyozandó képlet jön létre.
Míg az Intel vs. Nvidia egyszerű és érthető.
ps: Sztem az Intel-en tökéletesen meglátszik, hogy az AMD lemaradása miatt (konkurenciájuk nem lévén) nincs is mire hajtaniuk, csak lépegetnek a saját kedvük szerint, ahogy nekik éppen kellemes.
Ha nem húznak vmi nagyot, akkor az Nvidia ugyan így fogja lehagyni őket a következő 2-3 évben (már a Pascal közbeszúrása/felbukkanása is erre utal sztem) és az nekünk lesz kellemetlen, mert a két godzillát már nem motiválja majd semmi, miközben az AMD megelégszik azzal, hogy az alsó-közepet megszórja, mint egy globális 100ft-os bolt, fasznak versenyezni.
Vagyis ez így mindenkinek megfelel majd, csak a user 'baszik rá' - bár az is relatív ugye.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Az elso bekezdesed nevetseges, mar hogy a picsaba ne szamitana egy adott arkategoria (a GK110 bizony kurvadraga, ez volt a fo ok)?! A tobbit meg minek hozod fel? Egy budos szoval nem vitatkoztam vele (mivel nem is azt kommenteltem).
Az árkategóriának csak a többi ár és a gazdasági helyzet ismeretében van bármi értelme.
Viszonyítási alap nélkül pontosan nulla.
Tehát vagy önmagában a teljesítményt nézed, vagy belekeverjük az árat, mint tényezőt, de akkor sok minden mást is bele kell keverni, mert az 'ár' önmagában értelmezhetetlen - már azok számára, akik értik mi az ár. Azzal ugyanis az értéket kívánod kifejezni, amit viszont más térben és időben tévesen fejez ki. Az ár összehasonlításának csak egy adott időben és helyen van értelme, minden más esetben súlyozni kell.
Tehát valójában az a nevetséges, hogy te azt hiszed, hogy 2010-ben 500 dollár ugyan annyi, mint 2016-ban.
A többit meg azért hoztam fel, mert ez egy fórum és beszélgetünk.
Azt nem feltételeztem, hogy te vitatkozni szeretnél - de már látom ;)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Na ez megint csak sok rizsaval belebeszeles amit senki se mondott. A szinvonal az megvan.
Az Nvidia-nak egyszeruen nem volt ertelmes chip-je amivel le tudta volna valtani a GK104-re epulo 680-at. Basztak ujat tervezni ehhez. (Ahogy most a GM204 helyett sincs semmi mar masfel eve.) Alig tobb mint egy evvel kesobb fogtak a kurvadraga (mert kurvanagy (majdnem ketszer akkora mint a GK104) es nincs is sok belole (ilyen meretnel a yield nem eppen fenyes)) GK110-et es epitettek ra (eleve joval bonyibb nyakkal, stb.) egy 780-nak nevezett karit (is) amit 30%-al dragabban arultak mint az elodjenek tuno 680-at. Nem azert mert a dollar erteke ennyit valtozott volna es nem is azert mert a felvezetogyartok, stb reszerol hirtelen (de csak 2013-ra vonatkozoan) olyan nagy aremlekedes tortent volna. Nem veletlenul kerult a 980 annyiba amennyibe (2,5 ev alatt csak 10%-al tobbe mint a 680), ebbe a kategoriaba lett tervezve az egesz.
1. Az eredeti felvetés az volt, hogy a GPU-k sokkal nagyobb tempóban fejlődnek, mint a CPU-k.
Ezt cáfolta meg Vajk, de mivel csak visszaböfögtek neki, ezért én szépen levezettem.
2. Ezek után te ebből kiemeltél egy 780-at és elkezdtél másról beszélni, miközben nem arról volt szó. Ugyanis a lényeg, hogy az 580 és a 980 között mennyi fejlődés van, és ezzel szemben mennyi volt ugyan ennyi idő alatt CPU fronton, aminek a világon semmi köze ahhoz, hogy a 780 éppen mennyibe került.
3. Amikor én reagáltam, kitaláltad, hogy vitatkozni akarok veled, meg hogy tök másról beszélek - miközben te kezdtél el tök másról beszélni és vitatkozni velem.
Hiszen tökmind1 mennyibe kerül, processzorból egyszerűen nem kapsz sokkal erősebbet, míg videókártyából igen = Chiller állítása alátámasztva, Vajk megcáfolva, end of story.
4. Ez egy nagyon szép történet, biztos így is van, de mivel nem a 780-ról, hanem a folyamatokról beszéltünk...
Mellesleg, mintha az AMD nem tök ugyan ezt csinálná és nem lehetne tök ugyan így kiemelni, nem hogy egy kártyát, de teljesen kamu generációkat.
Ezért mondtam, hogy maradjunk az Intel/Nvidia összehasonlításánál, az is bőven elég ok a vitára, de egy fokkal átláthatóbb.
5. Igen, a színvonal az megvan.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Viszont en csak arra az egy konkret dologra reagaltam. Bizony lehet ilyet is. De azert keverjunk bele mindent feleslegesen...
(A CPU es a GPU meg teljesen mas teszta, szoval szerintem mar az egesz osszehasonlitas ertelmetlen.)
Viszont en csak arra az egy konkret dologra reagaltam.
Nem, te kiemelted a példa egyik elemét, majd teljesen másról kezdtél el beszélni, aminek semmi köze az eredeti témához és még közvetve sem cáfolja meg azt. Én ugyanis egy szót nem beszéltem a 780-ról, egyszerűen listáztam sok más között, tehát te arra nem is reagálhattál.
Elmondtad, amit a 780-al kapcsolatban el szerettél volna mondani, miközben nem arról volt szó.
Mindez persze csak annak fényében vicces, hogy a következő hozzászólásban meg felháborodtál, hogy én tök másról beszélek - miközben te beszéltél tök másról :D
(A CPU es a GPU meg teljesen mas teszta, szoval szerintem mar az egesz osszehasonlitas ertelmetlen.)
Akkor legközelebb mondjuk ne szólj hozzá?
Mert így utólag igazán gyönyörű kijelenteni, hogy semmi értelme a vitának, amibe előtte már beleböfögtél vmi tök értelmetlent, majd kikérted magadnak, hogy mások beszélnek másról, majd fikáztad a színvonalat - végül pedig közlöd, hogy szerinted semmi értelme.
Annak, amit itt most előadtál, annak nem volt semmi értelme.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Azt nem veszed eszre, hogy en nem az eredeti temat akartam cafolni stb. Egy erveles egyetlen pontjat korrigaltam roviden. Ennyi. Erre reagaltal tok feleslegesen es hosszan, ugyanazokkal amik fentebb mar le voltak irva. Minek? Olvastam.
A szinvonalat meg nem a vitara ertettem, hanem amiket te kesobb felhoztal. (Szerintem 2016-ban a dollar annyit er mint 2010-ben, stb. Na ez szinvonaltalan erveles.)
Sztem semmilyen módon nem szorult korrigálásra az érvelés pusztán azért, mert a négyből az egyik kártya 150 dollárral többe került, főleg, hogy nem valamelyik végén, hanem a felsorolás közepén volt fellelhető, tehát aligha torzította szélsőségesen a leírtakat. De rendben ^^
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
-> http://www.rewired.hu/content/tabletek
admin mantra: "mindent le lehet kakilni oszt megy az oldal mégis magától."
életfilozófia mantra: "ideológiailag veszélyesen eltévedt kanadai szektás."
Visszanyal a fagyi: amcsi kormányhivataloknak eladott AV cuccokban backdoor van. Amikor független kutatók jelentették a gyártónak, megváltoztatták a logint, és azt hazudták, hogy javították. :D
http://arstechnica.com/security/2016/01/media-devices-sold-to-feds-have-...
Volt mozilla alapító új browsere alapból letiltja a reklámokat....és berak helyettük sajátokat.
http://arstechnica.com/business/2016/01/mozilla-co-founder-unveils-brave...
Talán ide:
http://index.hu/tech/2016/01/21/az_ibm_tenyleg_megvette_a_ustreamet/
Steam: mrstrato
Cserekulcs listám
Szerintem most kiugranak dél-ázsiába néhány hónapig/évig bulizni-kurvázni a pénzből. :D
Majd meg megkerdezem havert, hogy hogyan kapjak meg, de ezeket legtobbszor 2-3 evre elosztottan, kesobbiekre sulyozottan kapjak meg :)
Regen minden jobb volt.
Elég olcsók arrafelé a kurvák, hogy ez pont jó legyen akkor 2-3 évig tartó bulira. :D
...avagy miért kérdezzen meg az ember inkább tényleg hozzáértőt, mielőtt IP kamerát, meg egyéb netes cuccot vásárol:
Internet of Things security is so bad, there’s a search engine for sleeping kids
related: egy éve vettem légkondit, és a boltban egyáltalán nem értették, amikor a biztonságról kérdeztem őket az akkor sok klímához épp ajándékba adott netes távirányító/automatizáló cuccal kapcsolatosan. Betanult szövegként ismételték, hogy a mac-címeket le lehet tiltani. Amikor megemlítettem, hogy neten nem megy az át, látszott, hogy elakadt az algoritmus a fejükben.
Nem tudom van e hírértéke, de ...
World First: Nanobot Micromotors Deliver Medical Payload Inside Living Creature
nna, vége lesz a jó kis túlhajtásoknak...
http://www.eurogamer.net/articles/digitalfoundry-2016-intel-moves-to-shu...
Mármint néhány processzor túlhajtásának, és azoknak is csak akkor, ha frissül az alaplapi BIOS, ami nyilván nem kötelező. A k-s processzorok továbbra is bőven megérik azt kis felárat, amivel full legálba/gari alatt lehet tolni föl a gigaherceket.
friss dx12 heterogén multi-gpu tesztek
http://arstechnica.co.uk/gaming/2016/02/directx-12-amd-and-nvidia-gpus-f...
rwurl=http://cdn.arstechnica.net/wp-content/uploads/sites/3/2016/02/on4V8oXnTp...
...és újra elérünk a CPU limit korába :D
anandtech:
Az első fecske bétájából levonni következtetéseket azért elég vad.
Ez viszont vicces:
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Nem nagy csoda ez, egy masszív egységszámmal operáló AAA RTS-ről beszélünk. Főleg hogy intelnél már pár éve "megállt" a fejlesztés. VGA oldalon még azért továbbra is megvan évente a +40-50% folyamatosan. Intel 7 év alatt nem tudott ennyit fejlődni (IPC-ben).
A Supcomnak is erősen javallott legalább 4 GHz-es 4 magos Sandy bridge. (de lehet úgy konfigurálni, hogy gyakorlatilag bármilyen procit megegyen - pld: 8 playeres skirmish, oldalanként 1000+ egységgel)
Ugyan nem vagyok avatott tudora a témának, de szvsz jóval szerényebb, amit képesek voltak elérni pl Atinál az elmúlt 3 év alatt:
http://gpuboss.com/gpus/Radeon-R9-390-vs-Radeon-HD-7970
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
Igen, látjuk.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
...és ez nem is meglepő, elvégre se nem testépítés, se nem nyaraló, de még csak nem is manganőmatrica egy kocsin. ;)
"Rossz úton jár az, aki álmokból épít várat, és közben elfelejt élni" - J.K. Rowling
Ti bezzeg máris bizonyítjátok, mennyire ügyesek vagytok. Gratula ;)
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
Pusztán azzal, hogy gpuboss-t linkelsz, már magadat égeted.
De amikor 2 generációnyi fisi-fosi AMD-re alapozod a nagy okosságodat, akkor minden hozzáértő tudtára adod ezzel, hogy fogalmad sincs.
Ha tippelni kell: örültél, hogy itt van újra Chiller és hozzá akartál szólni, csak nem tudtad elég jól kifejezni az örömödet. Szerintem ;)
A te történeted ugyanis első sorban a 7970 időtállóságáról szólna, aminek csak árnyéka a két későbbi generáció.
Lássuk inkább az Nvidia-t, ahol valóban fejlesztenek, meg előrelépés van és nem csak a füstcsavart tekergetik évek óta. (Hopp, egy autós utalás, google it!)
580 > 680 40%+ (1 év)
680 > 780 40%+ (1,5 év)
780 > 980 40%+ (1,5 év)
Mindeközben az Intel 3 generáció és hasonló idő alatt talán 20%-ot, de valójában annyit sem erősödött. (3570 > 4690 > 6600)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
A spoiler most nem kellett volna, mert jó kedvemben vagyok. Csak annyit akartam hozzátenni, hogy (utána nézés nélkül) számomra hihető, amit írsz. Az egyetlen bibi vele, hogy a 980 sem mai gyerek tudtommal, tehát inkább egy jó szériát példáz, mint egy következetes folyamatot. - de bánom is én.
A füstcsavart nem kell amúgy googlozni, pénteken a P1-ben látni nem lehetett a sok TDI huszártól.
"Mi egy cipősdobozban laktunk, salak volt vacsorára, és apánk minden éjjel hidegvérrel legyilkolt minket."
http://arxiv.org/pdf/1602.05314v1.pdf
Well.... f*ck. o.O
Mondjuk a GTX 780 nem igazan jo pelda, mert a 30-40%-os plusz teljesitmeny 30%-al magasabb aron is jott ki. Viszont a 980 eseten legalabb visszamentek 500 dollar kozelebe.
Sztem meg kár lenne elveszni ebben, mert akkor már nézni kell az árfolyamokat is, meg a reálértéket, meg hogy mikor volt természeti katasztrófa a távol-keleten, mikor hogy teljesített a gazdaság és stb. A statisztikai mindig azt hazudja, amit a készítője akar.
(Hiszen a 780-hoz képest akkor a 980 nem csak erősebb lett, hanem olcsóbb is, tehát kétszer akkora az előrelépés - már ha vki így akarja nézni.)
De az eredeti állítás, hogy a GPU-k sokkal rohamosabban fejlődnek, mint a CPU-k, az úgy hiszem nehezen cáfolható.
Míg az Intel kihoz egy tök ugyan annyit tudó, csak kisebb fogyasztással és jobb megoldásokkal operáló utódot, addig az Nvidia egy valódi szintet lép, erősebb lesz ÉS még jobb megoldásokkal és jóval kevesebb fogyasztással is párosul.
// Az AMD-t nem szerencsés belekeverni ebbe, mert szvsz mindkét esetben a konkurencia után kullognak évek óta, így egy nagyon bizarr és sok irányba súlyozandó képlet jön létre.
Míg az Intel vs. Nvidia egyszerű és érthető.
ps: Sztem az Intel-en tökéletesen meglátszik, hogy az AMD lemaradása miatt (konkurenciájuk nem lévén) nincs is mire hajtaniuk, csak lépegetnek a saját kedvük szerint, ahogy nekik éppen kellemes.
Ha nem húznak vmi nagyot, akkor az Nvidia ugyan így fogja lehagyni őket a következő 2-3 évben (már a Pascal közbeszúrása/felbukkanása is erre utal sztem) és az nekünk lesz kellemetlen, mert a két godzillát már nem motiválja majd semmi, miközben az AMD megelégszik azzal, hogy az alsó-közepet megszórja, mint egy globális 100ft-os bolt, fasznak versenyezni.
Vagyis ez így mindenkinek megfelel majd, csak a user 'baszik rá' - bár az is relatív ugye.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Az elso bekezdesed nevetseges, mar hogy a picsaba ne szamitana egy adott arkategoria (a GK110 bizony kurvadraga, ez volt a fo ok)?! A tobbit meg minek hozod fel? Egy budos szoval nem vitatkoztam vele (mivel nem is azt kommenteltem).
Az árkategóriának csak a többi ár és a gazdasági helyzet ismeretében van bármi értelme.
Viszonyítási alap nélkül pontosan nulla.
Tehát vagy önmagában a teljesítményt nézed, vagy belekeverjük az árat, mint tényezőt, de akkor sok minden mást is bele kell keverni, mert az 'ár' önmagában értelmezhetetlen - már azok számára, akik értik mi az ár. Azzal ugyanis az értéket kívánod kifejezni, amit viszont más térben és időben tévesen fejez ki. Az ár összehasonlításának csak egy adott időben és helyen van értelme, minden más esetben súlyozni kell.
Tehát valójában az a nevetséges, hogy te azt hiszed, hogy 2010-ben 500 dollár ugyan annyi, mint 2016-ban.
A többit meg azért hoztam fel, mert ez egy fórum és beszélgetünk.
Azt nem feltételeztem, hogy te vitatkozni szeretnél - de már látom ;)
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Na ez megint csak sok rizsaval belebeszeles amit senki se mondott. A szinvonal az megvan.
Az Nvidia-nak egyszeruen nem volt ertelmes chip-je amivel le tudta volna valtani a GK104-re epulo 680-at. Basztak ujat tervezni ehhez. (Ahogy most a GM204 helyett sincs semmi mar masfel eve.) Alig tobb mint egy evvel kesobb fogtak a kurvadraga (mert kurvanagy (majdnem ketszer akkora mint a GK104) es nincs is sok belole (ilyen meretnel a yield nem eppen fenyes)) GK110-et es epitettek ra (eleve joval bonyibb nyakkal, stb.) egy 780-nak nevezett karit (is) amit 30%-al dragabban arultak mint az elodjenek tuno 680-at. Nem azert mert a dollar erteke ennyit valtozott volna es nem is azert mert a felvezetogyartok, stb reszerol hirtelen (de csak 2013-ra vonatkozoan) olyan nagy aremlekedes tortent volna. Nem veletlenul kerult a 980 annyiba amennyibe (2,5 ev alatt csak 10%-al tobbe mint a 680), ebbe a kategoriaba lett tervezve az egesz.
1. Az eredeti felvetés az volt, hogy a GPU-k sokkal nagyobb tempóban fejlődnek, mint a CPU-k.
Ezt cáfolta meg Vajk, de mivel csak visszaböfögtek neki, ezért én szépen levezettem.
2. Ezek után te ebből kiemeltél egy 780-at és elkezdtél másról beszélni, miközben nem arról volt szó. Ugyanis a lényeg, hogy az 580 és a 980 között mennyi fejlődés van, és ezzel szemben mennyi volt ugyan ennyi idő alatt CPU fronton, aminek a világon semmi köze ahhoz, hogy a 780 éppen mennyibe került.
3. Amikor én reagáltam, kitaláltad, hogy vitatkozni akarok veled, meg hogy tök másról beszélek - miközben te kezdtél el tök másról beszélni és vitatkozni velem.
Hiszen tökmind1 mennyibe kerül, processzorból egyszerűen nem kapsz sokkal erősebbet, míg videókártyából igen = Chiller állítása alátámasztva, Vajk megcáfolva, end of story.
4. Ez egy nagyon szép történet, biztos így is van, de mivel nem a 780-ról, hanem a folyamatokról beszéltünk...
Mellesleg, mintha az AMD nem tök ugyan ezt csinálná és nem lehetne tök ugyan így kiemelni, nem hogy egy kártyát, de teljesen kamu generációkat.
Ezért mondtam, hogy maradjunk az Intel/Nvidia összehasonlításánál, az is bőven elég ok a vitára, de egy fokkal átláthatóbb.
5. Igen, a színvonal az megvan.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Viszont en csak arra az egy konkret dologra reagaltam. Bizony lehet ilyet is. De azert keverjunk bele mindent feleslegesen...
(A CPU es a GPU meg teljesen mas teszta, szoval szerintem mar az egesz osszehasonlitas ertelmetlen.)
Nem, te kiemelted a példa egyik elemét, majd teljesen másról kezdtél el beszélni, aminek semmi köze az eredeti témához és még közvetve sem cáfolja meg azt. Én ugyanis egy szót nem beszéltem a 780-ról, egyszerűen listáztam sok más között, tehát te arra nem is reagálhattál.
Elmondtad, amit a 780-al kapcsolatban el szerettél volna mondani, miközben nem arról volt szó.
Mindez persze csak annak fényében vicces, hogy a következő hozzászólásban meg felháborodtál, hogy én tök másról beszélek - miközben te beszéltél tök másról :D
Akkor legközelebb mondjuk ne szólj hozzá?
Mert így utólag igazán gyönyörű kijelenteni, hogy semmi értelme a vitának, amibe előtte már beleböfögtél vmi tök értelmetlent, majd kikérted magadnak, hogy mások beszélnek másról, majd fikáztad a színvonalat - végül pedig közlöd, hogy szerinted semmi értelme.
Annak, amit itt most előadtál, annak nem volt semmi értelme.
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw
Azt nem veszed eszre, hogy en nem az eredeti temat akartam cafolni stb. Egy erveles egyetlen pontjat korrigaltam roviden. Ennyi. Erre reagaltal tok feleslegesen es hosszan, ugyanazokkal amik fentebb mar le voltak irva. Minek? Olvastam.
A szinvonalat meg nem a vitara ertettem, hanem amiket te kesobb felhoztal. (Szerintem 2016-ban a dollar annyit er mint 2010-ben, stb. Na ez szinvonaltalan erveles.)
rwurl=https://media.giphy.com/media/gv1ZFyeG9b6ik/giphy.gif
“The power of accurate observation is commonly called cynicism by those who have not got it.” - G.B. Shaw