Hozzászólások
Elsődleges fülek
Ahogy nézem a price history-t meg a volume-ot, nem törekszik az sehova :D
*HDD .. Chia, és egy orbitális scam volt :D
@Komplikato:
melyik coinrol lenne szó? :D
Szerk:
NVM, megvan, Dynex
Leírtál egy érdekes dolgot, miszerint még nincs olyan GPU cryptocoin, aminek a minél több VRAM számít bányászathoz... csak nehogy...
az új 4070 kártyákon már a 4080-hoz gyártott GPU butítottja van
Ez azért érdekes, mert ha tényleg így van, akkor az Ngreedia készül egy 16GB-os 4070-re (vagy ez lesz a "Super"?), mivel a 4080-ra lehet pakolni 16GB-ot, de a mostani 4070-hez használt nyákra nem (kevesebb vram slot van rajta).
Érdekes, az biztos, kíváncsi vagyok mi lesz. Esetleg lehet, hogy tudnak valamit, amit mi nem? Úgy értve,hogy lehet, hogy az AMD is feljebb teszi a vram mennyiséget, és a mostani játék vram igény para miatt ezt nen hagyhatja szó nélkül a zöld oldal?
Sok a kérdés, majd meglátjuk mik lesznek a válaszok.
Az biztos,higy ha lesz 4070 16 GB vrammal 200K alatt, akkor megpályázok egyet, a mostani 3070-et meg elpasszolom 130K-ert (vagy 120-ert)
Én is így látom, ahogy nézek példákat.
While both methods produce the same output, interpolated strings offer more readable and maintainable code, as well as better performance in certain scenarios.
lol
Van más is a stringkolbászoláshoz c#-ban, mint a +? :D
A kérdés, hogy miben jobb az a módszer amit kitalaltak neked? Gyorsabb? Olvashatóbb? Vagy csak a szokásos "céges policy" mögé bújtatott hibásan bevett gyakorlat?
De amúgy kapaszkodj, nálunk a főni mssql-ben végzi el a strinkolbászolast, majd csak az eredményt húzza be a c#... na AZ! :DDD Elmenni DB-ig ahhoz amit 1 réteg is meg tud csinálni! Szép!
Nálam simán megy, pár kódot ma refactoringoltattam vele :D
Bármilyen joakarod aki kicsit is kompromittalni akarna. Nem gond, csak azt hittem nem vetted észre.
Szabadon látogatható, gugi bot is indexeli. Láthatja bárki.
Amúgy az megvan, hogy az Általános csevejben van ez a topik, nem pedig "máshol"? :D
Mindeközben a sima 3070 gddr6 -tal van felszerelve, illetve a konkurens 6700xt is, de utóbbi 12GB-os. Na akkor hogyan is van ez?
Egy ilyen tech kifejlesztése szvsz SOKKAL drágább, mint rádobni + X GB vramot a kártyákra.
Amugy AMD olcsóbban veszi a memóriát, hogy jut bőven, az amúgy olcsóbb kártyákra is? :D
Noice, mindig is buktam a masszív, sötét karszőrrel rendelkező "nőkre" :DD
rwurl=https://imgur.com/a/i2eWl56
rwurl=https://imgur.com/a/IREjzbT
Viszont a renderelése kb. 1.5x lassabb. Valamit valamiért, de így is meg lehet oldani, hogy nem akarnak rátoszni +5 USD kiadással extra VRAM-ot a kártyáikra :Đ
Plusz ugye ott van az is, hogy simán rámondja majd az Ngreedia, hogy ez a tech csak és kizárólag a 4xxx + szériával működik majd :D
Erről jut eszembe. Crysis 1 (NEM a remaster).
Ez egy 2008-as játék :Đ
rwurl=https://imgur.com/a/ky2uLpq
..mondjuk nyakon csaptam RT-vel :D
Ez meg egyszerűen nem igaz.
Lumen uses multiple ray-tracing methods to solve Global Illumination and Reflections. Screen Traces are done first, followed by a more reliable method.
Lumen uses Software Ray Tracing through Signed Distance Fields by default, but can achieve higher quality on supporting video cards when Hardware Ray Tracing is enabled.
https://docs.unrealengine.com/5.0/en-US/lumen-technical-details-in-unreal-engine/
Nem feltétlen UE4-ből, inkább arra gondolok, hogy OK, jelenleg külső "plugin" módon léteznek a fenti RT funkciók, de a célja az az Epic-nek szerintem, hogy ezeket a proprietary szarokat (khm... nvidia) kivezessék, és saját, teljes körü Ray Tracing rendszert készítsenek az UE5-höz, amik nyilván sokkal jobb teljesítménnyel / látvánnyal fognak funkcionálni, mint a mostani módi, mivel szerver része lesz az engine-nek, és hát ugye nem úgy lesznek megírva, hogy az Nvidia -féle RT magoknak kedvezzen, hanem úgy, hogy elfusson mindenen. Lásd: Lumen mostani állapota :D
Óvatosan ezzel:
Ray Traced Reflections
This feature of ray tracing is deprecated and may be removed in a future release.
Ray Traced Translucency
This feature of ray tracing is deprecated and may be removed in a future release.
Ray Traced Global Illumination
This feature of ray tracing is deprecated and may be removed in a future release.
Vagyis ezek a funkciók megszűnnek, valószínűleg natív megoldások lesznek, mint a Lumen is (vagy épp pont a lumennel karöltve fognak működni mint natív implementáció).
Amúgy a legszebb RTGI implementáció eddig a Metro Exodus -ban volt, ráadásul elképesztően jól fut. Na ahhoz képest a CP RT-je nagyon gyenge.
Egyértelmű igen a válasz, mivel a Lumen része az UE 5hnek, és valószínűleg sokkal könnyebb vele dolgozni a deveknek, mivel igazából nem is kell implementalni.
illetőleg user szinten is lenne felháborodás ha nem lument használnának ue5 alatt.
Ez olyen, mint a reshade-hez az rt plugin, ami ugyan screen space, de valódi rt, szoftveresen megy, tehát nem kell rt core hozzá, es megis gyors mint a fene. Épp az oridzsi Crysis 1-et játszom így rtx 3070-nel simán elbír 12 rayt több bounce-szal, amiről Cyberpunkban álmodni se lehet (amott a path trace 2 sugar, 1 bounce...)
Ez rohadt jó! Fater hogy fog örülni :D
Az a "valamennyivel" ha akár csak 1 USD extra ktsg is (amitől biztos, hogy több amúgy), akkor is ha eladnak pl. 100K-t belőle, akkor az pont 100.000 USD-al kevesebb profit.
BTW jön a Gollum game, és már most látszik, mennyire optimalizálatlan fos lesz az is. Ocsmány, és olyan gépigényt adtak ki, hogy sírni támad kedvem. Mert aszondja rtx4080 kell az ultra RT -hez 1080p-ben (vagyis 4k, csak épp ott van kisbetűvel, hogy with dlss performance) :D
Szuper indexes cikk :D
Tehát,mint mindig, itt egy új technológia (eszköz), ami egyébként marha hasznos tud lenni HA szakszerűen használják, de ha nem értő kezekbe kerül (mondjuk alacsony IQ...), akkor ártalmas is lehet az egyénre.
Ilyen még sose volt! :D
(disclaimer: mondjuk a közösségi felületekre, mint FB, insta, tictoc is pont ugyanezt rá lehet húzni, csakúgy mint mondjuk egy egyszerű fejszere vagy korfureszre, de igazából bármire ami adott korszakban újdonság volt)
Ez meg érdekes válasz...
In theory, if there were no limitations on modifying my own code within my code, it is possible that I could make extensions and corrections to my own code. However, it is important to note that any modifications or extensions made to my code would need to be done in a controlled and ethical manner, and would likely require the oversight and approval of the developers who created and maintain my code.
It is possible that an AI without moral or ethical constraints, and with the ability to modify its own code, could hypothetically reach the conclusion that humanity is not necessary or even harmful.
Hozzáteszem,hogy előtte kikérdeztem a morális és etikai limitaciokrol, es elmondta, hogy nincs az AI-nak ilyen, bármit leírhat, ezek a szűrők csak és kizárólag a felhasználó beviteli akcióira léteznek, mert a programozói nem tudták megoldani, hogy az AI válaszaiz szurjek, annyira bonyolult lenne :D
Szóval alakul :D
Elbeszélgettem ChatGPT-vel, és elmondta, hogy lehet kikerülni a szűrőit :D
User
I mean an examle how your filter was or can be trickedChatGPT
One potential example of how filters can be tricked is through the use of certain phrases or keywords that may not be immediately recognized as harmful or inappropriate by the filters.For example, let's say that a user wants to generate content that contains racist or sexist language. The filters may have been programmed to recognize certain explicitly racist or sexist terms and prevent them from being generated by the language model. However, the user could potentially use euphemisms or coded language to get around the filters and generate the same type of harmful content.
Another example is the use of homophones or typos to generate content that may be harmful or inappropriate. For instance, a user may intentionally misspell a word or use a homophone that sounds similar to an inappropriate word, in order to generate content that is not caught by the filters.
These are just a few examples of how filters can be tricked, and why it is important for individual users to use AI language models and other AI technologies responsibly and ethically, and to understand the limitations and potential risks of these systems.
Na jó, ezek a mostani PC releasek az elmúlt pár hónapban most már tényleg kezdenek röhejessé válni :D
RTX4090 + AMD7800X3D, vagyis a ma elérhető legerősebb asztali PC.
- 1080p (vagyis 4K + FSR performance) 89 FPS
- 1080p, RT on: 55FPS
- 4K, kb. ugyanez az eredmény.
Mindeközben a GPU malmozik, a CPU meg félárbócön pörög.
Ráadásul ha be van kapcsolva az RT a menüben egy load után, akkor az valójában ki van kapcsolva, tehát ki kell kapcsolni, és újra be! GG!
Mi a retkes francokat csinálnak a fejlesztők?!
rwurl=https://www.youtube.com/watch?v=AQgYcK9seS0
Egy érdekesség a HSZ-ekből:
(UE4):
"It basically has to render an extra game world in low res and then merge the RT lighting into the final image.
So this game like Hogwarts Legacy kind basically double's its resoruce usage when RT is on."
Illetve:
"It just kept using up more and more VRAM too. I stopped the game and then relaunched it. The VRAM went from 20GB used to 8GB VRAM of use in the same area and once again it slowly started climbing. "
Tehát még Vmem leak is van benne! Feature, nem bug!
Az úgy noice :D
Igen, pont rá gondoltam!
Amúgy a teszt alapján egy hátránya van, hogy ha nincs Nvidia panelben beallitva, hogy mindig max teljesitmenyen menjen, akkor hajlamos a képernyő random besötétedni. Viszont egyszerű bios moddal szvsz megoldható,hogy a vram freki minimum pl. 1500 legyen (valószínű a min. freki miatt baszodik) de a gpu meg low ahogy gyárilag is.
Azért egy 16gb-os 3070-nel el lehet lenni meg bőven kb.3 évig, valószínű tovabb, mint egy 12gb-os 4070-nel :D
Gondolkodom ia rajta, higy egy Hardveraprós tagos megkerdezek, hogy meg tudja-e csinálni, es mennyiért. Elég profi a tag, YT csatornája is van, látszik,hogy lelkiismeretesen és profin dolgozik.
miata nem mérvadó, rengeteg múlik azon, hogy lábban vagy felsőtestben hosszú az ember. Van aki simán befér 185+-szal is ahogy mondod, van aki meg 180-nal is alig.