Továbbra se látom, hogy oldják meg a fókusztávolság problémáját... (Erre bezzeg valamiért még senki nem válaszolt.)
A google fejlesztése meg teljesen más, mármint nem display, hanem szenzor. Elektronika-elektronika, néhány azonos problémával, de ez alapján az egy repülős hírhez bevághatnák azt, hogy az autóipar hol tart.
Tegyük hozzá rögtön, hogy a Square Enix rögtön meg is cáfolta a piacra kerülését az FFXIV VR-nek. Ez csak egy techdemó/prototípus a részükről a TGS-re.
A lightfield technikás kijelzőkre lehet fókuszálni is, de az még messze van, legalábbis mittudomén, mert zárt ajtók mögött zajlik a fejlesztés. Valamint a technika bonyolultságára tekintettel valószínűleg soha nem lesz versenyképes az orron hordott mobilkijelzővel (ami nem jelenti azt, hogy nem lehet leszorítani az árát a megfizethető kategóriába).
Egyébként relatív könnyű meghülyíteni az agyat, hogy nem kell fókuszálni, és minden éles. Ez a kisebbik problémák egyike.
Szóval vannak showstopper problémák. Pl: a VR rosszullétet, szédülést okoz. Ezek ma már 100%-ban letudva a prototípusokon.
Aztán vannak ilyen dolgok, mint a fókusz, amit csak akkor vesz észre az ember, ha figyel rá, vagy ha esetleg Nagi. Lehet, hogy te is a Nagi csoportba tartozol, de erre csak akkor fogsz rájönni, ha kipróbálod :)
Én most arra gondolok, hogy ha a megjelenítő fizikailag a szemlencsén helyezkedik el, akkor így kapásból nem vágom, hogyan képződik a retinára kép. De szívesen utánaolvasok, ha tudsz linkelni valamilyen forrást.
rwurl=https://www.youtube.com/watch?v=YJdMPUF8cDM
Elvileg NVidia mutatott is be új prototípust, az előző 2013-14-ben bemutatott az még kemény 128x128-as felbontású volt, de annyira zárt volt ez, hogy semmi infót nem lelek róla.
A Google felvetést meg nem értem. A Magic Leap projekthez egy külön megjelenítőt fejlesztettek, avagy felvásároltak ezzel foglalkozó céget és gőzerővel épül kijelző a gyáruk Izraelben. Persze hivatalosan semmit nem tudni róla, hogy mit kellett rajta fejleszteni, mitől ilyen titkos, de a "light field" kereső szóra állandóan kidobja valamiért.
Nem tudtam, hogy az FF14 VR csak demo volt. Viszont ilyen demót az Ubisoft is csinált, egyet a híres jelenetből a Far Cry 3-ból, egyet meg valamelyik Assasin Creed map feltúrbozott változatával.
Mastodon írta: Egyébként relatív könnyű meghülyíteni az agyat, hogy nem kell fókuszálni, és minden éles. Ez a kisebbik problémák egyike.
Itt épp, hogy nem az agyat kell hülyíteni, hanem a fizikát. Ha nem képződik le a retinára egy éles kép (mivel fókusztávon kívül esik, nem fog), tökmindegy, hogy mit gondol az agy.
..egyébként visszagondolva asszem kb fél (vagy egy?) éve pont ehhez köthető kérdést tett fel Carmac twitteren, természetesen érdemi válasz nélkül: lehet-e elmosódott képet úgy összerakni, hogy élesnek látszódjon.
(Visszafelé ugye működik a dolog, voltak anno jópofa pólók is, amik pont ezt használták ki.)
A belinkelt videó meg gyors belenézés alapján teljesen másról szól. Persze, ha kellő mennyiségű lencsét dobok a szemre, csökkenteni lehet a minimális fókusztávot. Persze ezzel együtt gyorsan el fog mászni a végtelenbe való fókuszálás lehetősége is. Namost két dolog: első, hogy egy ilyen kontaktlencsének nem lenne túl sok értelme, legalábbis nagyon szűkös keretek közt hordást leszámítva. Utcára már nem mennék vele. Második meg a méret. Sajnálatos módon a lencséknek fizikai kialakítás kell, amivel ugyan lehet trükközni (lásd frenell-lencsék), de tartok tőle, hogy azok is túl vastagok lennének kontaktlencsében való használathoz.
1) Agyhülyítés: Én arra gondoltam, hogy fix a fókusztávolság a VR sisakon belül, és az emberek többségénél gyorsan megszokja az agy, hogy ne akarjon fókuszt változtani különböző távolságú tárgyak között tekingetés közben. Szóval a VR sisak által vetitített kép (minden része) éles lesz a retinán (amíg élesre renderelik a képet, ami egyelőre kötelezően követendő szabály). Nyilván ez nem jó a szemnek, mert lustul, de egyébként ekvivalens ez a lustulás a hosszú ideig monitor bámulással, ami, ugye, szintén fix fókusztávolságra van (de megvan az opció ablak mellett ülni és sűrűn kitekingetni, ami nemcsak a szem miatt jó :) ).
2) Elmosódás: Amúgy meg az "elmosódott" fogalom tág, nem mindegy, hogy milyen elmosási folyamat hozta létre az elmosódott képet. Ha jól tudom az egylencsés VR sisak egyenletlen élességét és kromatikus aberrációját tudják kompenzálni renderből (tehát széleken kicsit elmossák a képet és szétdobják a színeket, hogy a retinán éles kép alakuljon ki). Más területen az Adobe Photoshopnak hihetetlen élességjavító agoritmusai vannak - ha megadjuk a hiba okát (mozgás, fókuszhiba, stb) ill. a kamera objektívjának adatait.
3) Lightfield: A belinkelt videót nem néztem meg, de a lightfield technológia értelme nem a lencsék sorbarakása, hanem a holografikus effektus emulálása sok egymás melletti, picit elmozdított tartalmú képpel. A mikrolencsék azért kellenek, hogy a kis képeket a retinára irányítsák. A matekot itt nem teljesen értem, de elvileg lehet fókuszálni a tárgymezőben különböző távolságra levő objektumokra, sőt minimális keretek között transzlálni is lehet a nézőpontot x-y irányban (statikus kép esetén).
Szerk: na megnéztem a videót, ez a kijelző nem mikrolencsékkel működik (a kamera tudtommal igen), hanem két külön folyadékkristály-mikrofilm réteggel, cserébe engem nem is győzött meg, a rear focusing nem igazán működött a demókon. Amíg nem tudják OLED-del megvalósítani addig nem valószínű, hogy versenyképes lesz a többivel. Az LCD késleltetése és szellemképezése showstoppernek bizonyult a többi gyártónál, mindenki OLED-del fog fogyasztói modellt kiadni.
Nem egyezek a cikkel, hogy irreleváns lehet az árazás miatt az Oculus. Na meg azzal se, hogy a Gear VR (=premium Google cardboard...), vagyis a gagyivéer egyeltalán versenyben lenne vele.
Egy feladata van a VR-nek, amikor megjelenik, az pedig, hogy ne legyen szar. Ha ez pénzbe kerül, akkor ez van, ezt kell csinálni (a nagyságrendél maradva).
Full list of new and optimised game profiles are below:
Mortal Combat X (G3D/Z3D), optimized for Virtual Cinema Mode
The Witcher 3 (Z3D), optimized for Virtual Cinema Mode
Crysis 3 now has full G3D
Amnesia (G3D)
Amnesia – A Machine for Pigs (G3D)
Quake II (G3D)
Quake III (G3D)
American McGee’s Alice (G3D), optimized for Virtual Cinema Mode
Star Wars – Knights of the Old Republic (G3D), optimized for Virtual Cinema Mode
Star Wars – Jedi Knight II – Jedi Outcast (G3D)
Star Trek Voyager – Elite Force (G3D)
Return to Castle Wolfenstein [2001] (G3D)
Heavy Metal FAKK 2 (G3D), optimized for Virtual Cinema Mode
Hát az Until Dawn biztos jó lesz VR-ben (is), de egy pixelt sem mutattak abból a verzióból. A többi játékban egyszer majd lesz VR, de nem mutattak ilyen játékmenetből semmit, még a direkt VR platformos robotos lövöldözésből sem. Szóval az egyetlen értékelhető a multiplatformos Robinson.
2016 tavaszára, amikor a három nagyobb gyártó VR eszköze a piacon lesz, már lesznek profi felvételek... Erm, csakis profi felvételekről lehet szó, mert többszázezer dolláros tétel egy kamera, napi bérleti díja is többezer dollár lesz. Telóra ne várjunk ilyet a közeljövőben :D
A fókusz állításához meg természetesen szükséges szemkövetés is, amit még egyik consumer VR eszközhöz se jelentettek be, még kísérletezés szintjén sem.
Well, ismerve a Lytro korábbi bukdácsolásait, én azért várnék az elfogulásmentes tesztekre. A korábbi cuccaik botrányosan kis felbontású, nagyon lassan fókuszáló, nagyon sötétek voltak, és persze csak extra segédprogrammal voltak megtekinthetőek a képek.
Az igaz, hogy praktikus szempontból erősen korlátoltak voltak az eszközeik. De ne hasonlítsunk össze egy iNúbleteknek szánt 500 ill. egy techentúziaszta 1700 dolláros fényképezőgép-szerűséget egy még nem létező használati eszközzel*, ami maximálisan professzionális felhasználásra van szabva a konzumerpiacra jellemző költségbeli kompromisszumok nélkül.
* - nincs olyan felvevőeszköz, ami élőképet (fényteret?) vesz fel úgy, hogy egy köbméteres térrészben szabadon megválasztható a néző elhelyezkedése és tekintetének iránya.
Amúgy az 1700 dolláros masinának már megvolt a megfelelő felbontása... 2k videóhoz :D
A képek megtekintéséhez való extra segédprogram meg természetes szükség. Tudtommal nincs olyan széles körben használt szabvályos képfromátum, ami fényteret ír le és újrafókuszálható... (normál képek meg nyilván exportálhatók a programból).
Előre is bocs, többször félbeszakítottak. És mert kilométeres rant. Nyugodtan /ignore. :D
ShowHide spoiler #
Fókusz
Korábban is ezzel vakították a népet, de a valóság az volt, hogy volt kb 10 fókuszcsík, amik közt váltogatni lehetett. Az első Lytro túl kicsi felbontású volt ahhoz, hogy ez minden fotón kiderüljön, a másodikról még nem láttam profi tesztet, de az online galériák alapján ugyanez van azzal is.
Ráadásul míg hagyományos fényképezésnél és hagyományos videózásnál a fókusszal való játszadozás emeli a művészi értéket, VR-nél épp, hogy azt akarja az ember, hogy minden legyen fókuszban. Értsd: ne legyen az, hogy kissé jobbra fordítom a szememet és máris nincs fókuszban a látvány.
Tény, hagyományos filmeknél én is szúrtam már ki olyan jeleneteket, ahol elbaszták a fókuszt. De minél drágább egy film, annál kevésbé jellemző, mivel egyszerűen megengedhetik, hogy újraforgassák, ha elbassza a focus puller. Azaz ez az alacsony költségvetésű filmeknél segítene, amiknek valszleg nincs költségvetésük több ezer dollárért bérelni egy ilyet.
Nézőpontfüggetlenség
A leírás kissé ködösít, inkább közelítésről beszél, és azt mutatjáék. Nem teljesen szabadon megválasztható nézőpontról.
move your head around and getting further and closer away from an object in a scene. Having the reflection and the light rays adjusting accordingly.
Ez nem jelenit azt, hogy az ember elmozdulhatna ténylegesen szabadon. Ha belegondolsz, ez logikus is: csak onnan képes felvételt készíteni a gép, ahova elhelyezték. Azt továbbra se látja, amit valami eltakar abból az eredeti szögből, mivel nem esnek be az érzékelőibe az onnan induló fénysugarak.
Egyébként itt a demó, ha végignézed, kiszúrod a turpisságot:
rwurl=https://vimeo.com/144034085
Csak közelít/távolít. Arra képtelen, hogy egy tárgyhoz odaközelítsen, a cucc sugarán kívül, aztán mondjuk jobbra kikandikáljon. Persze bizonyos részeit kiszámolhatja a látványnak, ezt nem tagadom. De nem rendelkezik a képalkotáshoz kellő teljes adathalmazzal. Mert azon fénysugarak egyszerűen nem értek bele a gömbkamerába. Tehát a demovideónál maradva: a gömb egy picit beleér a csónak fölé. Addig elmehet a fejed a virtuális térben, tovább azonban nem.
Nna, közben olvasom tovább a cikket, és mondják is, hogy csak az érzékelők gömbjén belül van tökéletes képük:
You can go outside the ring, but what you’ll see is kind of a gradual degrading of the experience. You’ll start to notice gaps where we might not have the image data to fully recreate the scene …
Tehát gyakorlatilag az van, hogy 1m3-en belül (ami egy 60 centi sugarú gömb, ha jól számolta google, valszleg kb ekkorára tervezik a cuccot magát) az információveszteség még nem akkora, hogy azonnal kiszúrod.
Illum
A korábbi cucchoz visszakanyarodva az 1700 dolláros ár pedig... annyiért egy Full Frame gépet lehet venni. A felvétel utáni fókusz/elmosás trükkre egyébként a Nokia PureView, később pedig a HTC M8 mobilja is képes volt, töredék áron, sokkal jobb minőségben. Annak a felépítése más volt, és az eredmény minősége Lytro számára sajnálatos módon jobb.
Segédprogi
Az volt, hogy asszem 6 hónapon keresztül nem volt elérhető csak mac-en. Aztán indult egy webes galéria, ami a mobilokat nem támogatta, és a nevetséges 640x480-as vagy még kisebb felbontásban ment csak, bezoomolás nélkül. A 24"-os fullHD monitoron asszem nem kell mondjam, hogy nézett ez ki. Ja és a "RAW"-konverter progi maga is gyermekded volt, a piacon lévő bármihez (tehát nem csak lightroom, hanem a legalja gyártóspecifikus odaröffentéseket is belevéve, amik híresen szarok szoktak lenni) hasonlítva, ami a funkcionalitást illeti.
Álmok
Arra ez így nem alkalmas, amit a végén vizonálnak: játékokat ezzel megvalósítani. Legalábbis nem FPS-eket. Inkább a régi "szobás" megvalósítású puzzle játékokra kell gondolni, ahol fix nézőpontok közt lehetett váltogatni.
A GC beillesztéssel nagyobb probléma, hogy a beillesztett CG helyén kell információ. ezért szoktak reflektív krómgömböket bedobni néha, már ha nem greenscreen az egész. Ezeket a gömböket pl leválthatná a cucc. Csak hát a cuccot több ezer dollár bérelni, és a gömbbel is nagyjából elvannak a CG művészek. Néhány ilyen és olcsóbb teljesen greenscreen-nel megoldani az egész jelenetet. A tökéletes árnyékolást és fényjátékot egyébként csak úgy lehetne megoldani, ha egy beillesztés körvonalát követő szenzorrengeteget raknának minden egyes beilleszteni kívánt CG cucc helyére.
Arra használható, hogy sokkal könnyebb legyen elválasztani, hogy mit kellene felülfesteni a bevágott CG-vel, és minek kell takarni a CG-t. Mármint az adott nézőpont-buborékból nézve. A bökkenő azonban megint csak az ár, ami miatt consumer cuccokban nem használható: láttad azt a szervert a demo videóban, amire mondják, hogy kell a felvételhez? A cikk szerint az egy órányi adatot tárol. Namost ez kéne ahhoz, hogy ténylegesen "élő" legyen a játék, jobban mondva ezt kéne kombinálni a CG effektekkel, on-the-fly. A fejmozgást természetesen lekövetve, érezhető késleltetés nélkül. Minden egyes felhasználónál, lokálisan. Not gonna happen. :)
Hagyományos filmek
Arra is használható lenne, hogy filmezésnél post production-ban pontosítson az ember a kamera nézőpontján. Azonban ezzel egy van egy hatalmas probléma: a profi szegmensben egyszerűen nem szükséges ez. Ha elbasztad, nem vagy profi, (előre lebeszélik, hogy mit hogyan is képzel el egyáltalán, másfelől ma már azonnal felvétel után visszanézik, és ha nem tökéletes, a rendező azonnal mondja, hogy mit hogyan kéne korrigálni a következőre) vagy az a legkisebb probléma (mert nincs kialakult concept arról, hogy hogyan is kéne forgatni). Tehát a kezdőknek lenne jó, akiknek viszont túl drága.
Arra lehetne használni, hogy mondjuk ne xyz-t vegyék, hanem a mellettük ülő párocskát, de ez meg egyfelől bármelyik gömbpanorámás kamerával megoldható, másfelől ami alapvetően nincs képben, azt költségkímélés miatt nem is szokták annyira kidolgozni. Esetleg dzsungeles dokumentumfilmekhez lehetne használni, amikor gőzöd nincs, hogy mikor honnan ugrik a majom, de ahhoz megint csak túl drága, túl körülményes. Vagy tömegjeleneteknél, amik ugyan nem tartanak sokáig, de ott talán tényleg használható lenne ez a cucc. Legalábbis azon szögekben, ahol nem látszanak a stábtagok, és csak azon snittekben, ahol épp nem kell a főhősöket mutatni. :D
speckók?
Ezek mellett persze két nagyon fontos dologról egyáltalán nem beszélnek: használható felbontás és dinamikatartomány. Filmgyártásban ha ez a kettő nincs meg, akkor lehet bármekkora újítás, egyszerűen nem használható. (Meg van még néhány dolog.) Fogalmazzunk úgy, hogy a korábbi modellek dinamikatartományban sem voltak túl jók. Kb kompakt kamerák szintjén mozognak, ami a nevetséges kategória bármilyen komolyabb dologra. A használható felbontásról pedig annyit mondok, hogy én kiszúrom egy 1080p-s monitoron, ha egy 4K youtube videó GoPro-val készült. A profik nálam kíméletlenebbek.
szvsz
Namost nem azt mondom, hogy 100%-osan haszontalan a cucc. De nem világmegváltó. Egy gömbkamera, extra opcionális elmosással, és elvileg némileg módosítható nézőponttal. Hogy ez utóbbi mennyire működik azon a 60 centi sugarú gömbön belül, azt majd meglátjuk. Szvsz ne várjunk tőle nagy dolgokat, főleg ne capslockkal írva. :)
A csúf
Végére a legrandább dolog: sehol egy tényleges videó vagy kép. A demovideó végén a kisbetűs figyelmeztet, hogy csak concept artot nézel. Erős a gyanúm, hogy néhány CAD renderen és egy ötleten kívül nincs másuk. Legalábbis semmi, amiről tényleges képet vagy videót adhatnának ki.
Kicsit messzebb mentél a követelményekkel, mint amit én kinéztem a cuccból :)
Szóval hogy egyértelmű legyek: jelenleg nincs olyan cucc, amivel érdemlegesen lehet VR HMD-vel nézhető felvételt készíteni. A VR-ben alapkövetelmény, hogy a fejmozgás le egyen követve, és szembe vetített kép ezt hűen lekövesse, és ezt egyszerűen semmilyen sztereoszkopikus 3D kamerarendszer nem tudja.
Tehát ha csak azt tudja a cucc, hogy van a fejnek 60 cm mozgástere és 360 fokos elforgatási szabadsága minden irányba statikus tartalom lejátszása során, már akkor is egy abszolút hiánypótló eszközről beszélünk, ami bizonyos tartalmaknál létfontosságú, mert különben nem működne VR-ben. Az állítható fókusztávolság ebből a szempontból leszarandó jellemző.
Jogos észrevétel, hogy egy ilyen felvételnek limitált a felhasználási köre, és akkor minek az egész. Én erre azt mondom, hogy pont nem a játékokban kell keresni a helyét a VR videóknak, hanem a kazsuál felhasználók körében. Ilyen mundán dolgok, hogy ül az ember egy velencei kávézó teraszán és szabadon bámészkodhat. Vagy kevésbé hétköznapi helyzetek, mint a fókák között a strandon, vagy cápák között a víz alatt, vagy a Himalája tetején, vagy a ... Ilyen felvételekkel el lehet adni a VR-t bárkinek, mert olyan dolgokat tapasztalhatnak meg az élőhöz legközelebbi közelségben, amit ismernek, de talán nem is tapasztalhatják meg a valóságban.
Gazdasági szempontokat figyelembevéve is vannak előnyei. Ahhoz, hogy megfelelően fotorealisztikus, részletgazdag legyen a valósídejű rendering 90+ fps-sel 4k-ban sokezer dolláros vassal kell rendelkezni. Statikus felvétel lejátszása valószínűleg mehet jóval olcsóbb hardveren is. Tartalomkészítői oldalról a fentebb említett velencei kávézó környezetének részletgazdag lemodellezése és animálása emberekkel, járművekkel, stb., több munkahónapot venne igénybe. Egy ilyen felvétel elkészítése viszont párezer dollárból egy nap alatt meglenne.
Én látom benne a kraftot. Persze a képminőségen áll vagy bukik, de itt nagyságrendekkel komolyabb belsőt engedhetnek meg maguknak mint a konzumer cuccoknál, és én azért vagyok bizakodó, hogy ezzel kinövi a Lytro a gyermekbetegségét.
A fókusz állításához meg természetesen szükséges szemkövetés is, amit még egyik consumer VR eszközhöz se jelentettek be, még kísérletezés szintjén sem.
Na most létezik ilyen VR Headset amit eleve ezzel fejlesztettek, vannak a weeben fellelhető barkács megoldások amiket bármelyik HMD-re rá lehet hackelni, valamint az Oculus részéről is elhangzott olyasmi, hogy a következő termékbe már szeretnék ők is beépíteni. Az más kérdés, hogy konkrétan mit tudnak ezek a megoldások majd nyújtani.
Ami engem érdekel az a light field téma. Ha jól sejtem ilyen kijelzőkhöz való kép renderelése nagyságrendekkel több adat, mint a "sima 2D". Valahol olyasmit láttam, hogy valaki hitetlenkedett a Google megoldásának annyival jobb lenne a látószöge az MS HoloLens-nél mint amit regélnek, mert a HL-nek 5 Mpixelnyi képet kell kipakolnia, akkor a másik szemüvegnek már 80Mpixel(!)-re lenne szüksége. Igaz nem tudom hány rétegű lehet a kép, mert elvileg már két réteggel működhet, de találtam direkt ilyet barkácsoló oldalt, ott alapból hárommal indítanak. A Leia3D nevezetű "holo" kijelző meg valami 60 réteget tartalmaz cserébe borzalmas felbontással és színekkel.
A Lytro technológiája a felvétel készítéséről szól, nem a kijelzőről. Egy mikrolencse-mátrixot helyeznek a CCD elé (azért jóval kisebb a felbontás azonos méretű CCD esetén, és azért remélem, hogy ennek normális felbontása lesz, mert sokkal több CCD fér a gömbbe), és matek, és adat, és matek, és kép. Hogymondjam, ez a lightfield nem az a lightfield, amit a kijelzőknél használnak :) A Lytro kamera által felvett anyagot "hagyományos" HMD-ken lehet majd nézni első körben, és bár nem triviális a lejátszás hardverkövetelménye, rögzített felbontású anyaghoz, adott felbontású kijelzőn változatlan a számítási követelmény, ami mindenképpen előny a 3D geometria rendereléséhez képest.
No comment:
http://uploadvr.com/crude-contact-lens-displays-may-be-possible-in-next-five-years-says-carmack/
Továbbra se látom, hogy oldják meg a fókusztávolság problémáját... (Erre bezzeg valamiért még senki nem válaszolt.)
A google fejlesztése meg teljesen más, mármint nem display, hanem szenzor. Elektronika-elektronika, néhány azonos problémával, de ez alapján az egy repülős hírhez bevághatnák azt, hogy az autóipar hol tart.
Ez engem is érdekelne.
Talán holográfia segítségével elképzelhető.
Tegyük hozzá rögtön, hogy a Square Enix rögtön meg is cáfolta a piacra kerülését az FFXIV VR-nek. Ez csak egy techdemó/prototípus a részükről a TGS-re.
A lightfield technikás kijelzőkre lehet fókuszálni is, de az még messze van, legalábbis mittudomén, mert zárt ajtók mögött zajlik a fejlesztés. Valamint a technika bonyolultságára tekintettel valószínűleg soha nem lesz versenyképes az orron hordott mobilkijelzővel (ami nem jelenti azt, hogy nem lehet leszorítani az árát a megfizethető kategóriába).
Egyébként relatív könnyű meghülyíteni az agyat, hogy nem kell fókuszálni, és minden éles. Ez a kisebbik problémák egyike.
Ez így a teljesen laikus szememben kb. olyan lila ködös büfi volt, mint Carmack mesteré.
Szóval vannak showstopper problémák. Pl: a VR rosszullétet, szédülést okoz. Ezek ma már 100%-ban letudva a prototípusokon.
Aztán vannak ilyen dolgok, mint a fókusz, amit csak akkor vesz észre az ember, ha figyel rá, vagy ha esetleg Nagi. Lehet, hogy te is a Nagi csoportba tartozol, de erre csak akkor fogsz rájönni, ha kipróbálod :)
Én most arra gondolok, hogy ha a megjelenítő fizikailag a szemlencsén helyezkedik el, akkor így kapásból nem vágom, hogyan képződik a retinára kép. De szívesen utánaolvasok, ha tudsz linkelni valamilyen forrást.
rwurl=https://www.youtube.com/watch?v=YJdMPUF8cDM
Elvileg NVidia mutatott is be új prototípust, az előző 2013-14-ben bemutatott az még kemény 128x128-as felbontású volt, de annyira zárt volt ez, hogy semmi infót nem lelek róla.
A Google felvetést meg nem értem. A Magic Leap projekthez egy külön megjelenítőt fejlesztettek, avagy felvásároltak ezzel foglalkozó céget és gőzerővel épül kijelző a gyáruk Izraelben. Persze hivatalosan semmit nem tudni róla, hogy mit kellett rajta fejleszteni, mitől ilyen titkos, de a "light field" kereső szóra állandóan kidobja valamiért.
Nem tudtam, hogy az FF14 VR csak demo volt. Viszont ilyen demót az Ubisoft is csinált, egyet a híres jelenetből a Far Cry 3-ból, egyet meg valamelyik Assasin Creed map feltúrbozott változatával.
Itt épp, hogy nem az agyat kell hülyíteni, hanem a fizikát. Ha nem képződik le a retinára egy éles kép (mivel fókusztávon kívül esik, nem fog), tökmindegy, hogy mit gondol az agy.
..egyébként visszagondolva asszem kb fél (vagy egy?) éve pont ehhez köthető kérdést tett fel Carmac twitteren, természetesen érdemi válasz nélkül: lehet-e elmosódott képet úgy összerakni, hogy élesnek látszódjon.
(Visszafelé ugye működik a dolog, voltak anno jópofa pólók is, amik pont ezt használták ki.)
A belinkelt videó meg gyors belenézés alapján teljesen másról szól. Persze, ha kellő mennyiségű lencsét dobok a szemre, csökkenteni lehet a minimális fókusztávot. Persze ezzel együtt gyorsan el fog mászni a végtelenbe való fókuszálás lehetősége is. Namost két dolog: első, hogy egy ilyen kontaktlencsének nem lenne túl sok értelme, legalábbis nagyon szűkös keretek közt hordást leszámítva. Utcára már nem mennék vele. Második meg a méret. Sajnálatos módon a lencséknek fizikai kialakítás kell, amivel ugyan lehet trükközni (lásd frenell-lencsék), de tartok tőle, hogy azok is túl vastagok lennének kontaktlencsében való használathoz.
1) Agyhülyítés: Én arra gondoltam, hogy fix a fókusztávolság a VR sisakon belül, és az emberek többségénél gyorsan megszokja az agy, hogy ne akarjon fókuszt változtani különböző távolságú tárgyak között tekingetés közben. Szóval a VR sisak által vetitített kép (minden része) éles lesz a retinán (amíg élesre renderelik a képet, ami egyelőre kötelezően követendő szabály). Nyilván ez nem jó a szemnek, mert lustul, de egyébként ekvivalens ez a lustulás a hosszú ideig monitor bámulással, ami, ugye, szintén fix fókusztávolságra van (de megvan az opció ablak mellett ülni és sűrűn kitekingetni, ami nemcsak a szem miatt jó :) ).
2) Elmosódás: Amúgy meg az "elmosódott" fogalom tág, nem mindegy, hogy milyen elmosási folyamat hozta létre az elmosódott képet. Ha jól tudom az egylencsés VR sisak egyenletlen élességét és kromatikus aberrációját tudják kompenzálni renderből (tehát széleken kicsit elmossák a képet és szétdobják a színeket, hogy a retinán éles kép alakuljon ki). Más területen az Adobe Photoshopnak hihetetlen élességjavító agoritmusai vannak - ha megadjuk a hiba okát (mozgás, fókuszhiba, stb) ill. a kamera objektívjának adatait.
3) Lightfield: A belinkelt videót nem néztem meg, de a lightfield technológia értelme nem a lencsék sorbarakása, hanem a holografikus effektus emulálása sok egymás melletti, picit elmozdított tartalmú képpel. A mikrolencsék azért kellenek, hogy a kis képeket a retinára irányítsák. A matekot itt nem teljesen értem, de elvileg lehet fókuszálni a tárgymezőben különböző távolságra levő objektumokra, sőt minimális keretek között transzlálni is lehet a nézőpontot x-y irányban (statikus kép esetén).
Szerk: na megnéztem a videót, ez a kijelző nem mikrolencsékkel működik (a kamera tudtommal igen), hanem két külön folyadékkristály-mikrofilm réteggel, cserébe engem nem is győzött meg, a rear focusing nem igazán működött a demókon. Amíg nem tudják OLED-del megvalósítani addig nem valószínű, hogy versenyképes lesz a többivel. Az LCD késleltetése és szellemképezése showstoppernek bizonyult a többi gyártónál, mindenki OLED-del fog fogyasztói modellt kiadni.
oculus-rift-now-expected-to-cost-more-than-350$
Nem egyezek a cikkel, hogy irreleváns lehet az árazás miatt az Oculus. Na meg azzal se, hogy a Gear VR (=premium Google cardboard...), vagyis a gagyivéer egyeltalán versenyben lenne vele.
Egy feladata van a VR-nek, amikor megjelenik, az pedig, hogy ne legyen szar. Ha ez pénzbe kerül, akkor ez van, ezt kell csinálni (a nagyságrendél maradva).
How two Valve engineers walked away with the company's augmented reality glasses:
http://www.theverge.com/2013/5/18/4343382/technical-illusions-valve-augm...
Steam: mrstrato
Cserekulcs listám
Hát most már nagyon kíváncsi leszek a közelgő bemutatóra mi a fene is az a Magic Leap?
rwurl=https://youtu.be/kw0-JRa9n94
Solastyear^2
Amúgy, lett valami belőle vagy csak belinkelted, hogy itt legyen? 2013-ban, amikor olvastam, még elég hamvába holt vakvágánynak tűnt.
Nemtom. Csak megláttam a Twitteren, a dátumot meg sem néztem. Nem is értem, miért dobták ki újra a Twitterre. :)
Steam: mrstrato
Cserekulcs listám
OCULUS RIFT DK2 HAS OFFICIALLY SOLD OUT- VRfocus
Szóval mostantól marad a CV1 előrendelésre.
HTC Vive May Launch Dec 8th in the UK, US and Germany, Interview Suggests
Vagy nem. Jók ezek a cikkek. :D
VorpX 0.9 is Now Released, Adds Async Timewarp, Witcher 3 and Star Wars Classics Support
All the PlayStation VR news from today's big Sony event
Steam: mrstrato
Cserekulcs listám
Hát az Until Dawn biztos jó lesz VR-ben (is), de egy pixelt sem mutattak abból a verzióból. A többi játékban egyszer majd lesz VR, de nem mutattak ilyen játékmenetből semmit, még a direkt VR platformos robotos lövöldözésből sem. Szóval az egyetlen értékelhető a multiplatformos Robinson.
Nah, akkor kicsit hiszemhalátom, de elvileg itt a
ÚJRAFÓKUSZÁLHATÓ, NÉZŐPONTFÜGGETLEN, 360 FOKOS VR KAMERA
http://www.wired.com/2015/11/lytro-refocuses-to-create-a-groundbreaking-vr-camera/
2016 tavaszára, amikor a három nagyobb gyártó VR eszköze a piacon lesz, már lesznek profi felvételek... Erm, csakis profi felvételekről lehet szó, mert többszázezer dolláros tétel egy kamera, napi bérleti díja is többezer dollár lesz. Telóra ne várjunk ilyet a közeljövőben :D
A fókusz állításához meg természetesen szükséges szemkövetés is, amit még egyik consumer VR eszközhöz se jelentettek be, még kísérletezés szintjén sem.
Well, ismerve a Lytro korábbi bukdácsolásait, én azért várnék az elfogulásmentes tesztekre. A korábbi cuccaik botrányosan kis felbontású, nagyon lassan fókuszáló, nagyon sötétek voltak, és persze csak extra segédprogrammal voltak megtekinthetőek a képek.
Az igaz, hogy praktikus szempontból erősen korlátoltak voltak az eszközeik. De ne hasonlítsunk össze egy iNúbleteknek szánt 500 ill. egy techentúziaszta 1700 dolláros fényképezőgép-szerűséget egy még nem létező használati eszközzel*, ami maximálisan professzionális felhasználásra van szabva a konzumerpiacra jellemző költségbeli kompromisszumok nélkül.
* - nincs olyan felvevőeszköz, ami élőképet (fényteret?) vesz fel úgy, hogy egy köbméteres térrészben szabadon megválasztható a néző elhelyezkedése és tekintetének iránya.
Amúgy az 1700 dolláros masinának már megvolt a megfelelő felbontása... 2k videóhoz :D
A képek megtekintéséhez való extra segédprogram meg természetes szükség. Tudtommal nincs olyan széles körben használt szabvályos képfromátum, ami fényteret ír le és újrafókuszálható... (normál képek meg nyilván exportálhatók a programból).
tl;dr: lytro továbbra is lytro.
Előre is bocs, többször félbeszakítottak. És mert kilométeres rant. Nyugodtan /ignore. :D
Korábban is ezzel vakították a népet, de a valóság az volt, hogy volt kb 10 fókuszcsík, amik közt váltogatni lehetett. Az első Lytro túl kicsi felbontású volt ahhoz, hogy ez minden fotón kiderüljön, a másodikról még nem láttam profi tesztet, de az online galériák alapján ugyanez van azzal is.
Ráadásul míg hagyományos fényképezésnél és hagyományos videózásnál a fókusszal való játszadozás emeli a művészi értéket, VR-nél épp, hogy azt akarja az ember, hogy minden legyen fókuszban. Értsd: ne legyen az, hogy kissé jobbra fordítom a szememet és máris nincs fókuszban a látvány.
Tény, hagyományos filmeknél én is szúrtam már ki olyan jeleneteket, ahol elbaszták a fókuszt. De minél drágább egy film, annál kevésbé jellemző, mivel egyszerűen megengedhetik, hogy újraforgassák, ha elbassza a focus puller. Azaz ez az alacsony költségvetésű filmeknél segítene, amiknek valszleg nincs költségvetésük több ezer dollárért bérelni egy ilyet.
Nézőpontfüggetlenség
A leírás kissé ködösít, inkább közelítésről beszél, és azt mutatjáék. Nem teljesen szabadon megválasztható nézőpontról.
Ez nem jelenit azt, hogy az ember elmozdulhatna ténylegesen szabadon. Ha belegondolsz, ez logikus is: csak onnan képes felvételt készíteni a gép, ahova elhelyezték. Azt továbbra se látja, amit valami eltakar abból az eredeti szögből, mivel nem esnek be az érzékelőibe az onnan induló fénysugarak.
Egyébként itt a demó, ha végignézed, kiszúrod a turpisságot:
rwurl=https://vimeo.com/144034085
Csak közelít/távolít. Arra képtelen, hogy egy tárgyhoz odaközelítsen, a cucc sugarán kívül, aztán mondjuk jobbra kikandikáljon. Persze bizonyos részeit kiszámolhatja a látványnak, ezt nem tagadom. De nem rendelkezik a képalkotáshoz kellő teljes adathalmazzal. Mert azon fénysugarak egyszerűen nem értek bele a gömbkamerába. Tehát a demovideónál maradva: a gömb egy picit beleér a csónak fölé. Addig elmehet a fejed a virtuális térben, tovább azonban nem.
Nna, közben olvasom tovább a cikket, és mondják is, hogy csak az érzékelők gömbjén belül van tökéletes képük:
Tehát gyakorlatilag az van, hogy 1m3-en belül (ami egy 60 centi sugarú gömb, ha jól számolta google, valszleg kb ekkorára tervezik a cuccot magát) az információveszteség még nem akkora, hogy azonnal kiszúrod.
Illum
A korábbi cucchoz visszakanyarodva az 1700 dolláros ár pedig... annyiért egy Full Frame gépet lehet venni. A felvétel utáni fókusz/elmosás trükkre egyébként a Nokia PureView, később pedig a HTC M8 mobilja is képes volt, töredék áron, sokkal jobb minőségben. Annak a felépítése más volt, és az eredmény minősége Lytro számára sajnálatos módon jobb.
Segédprogi
Az volt, hogy asszem 6 hónapon keresztül nem volt elérhető csak mac-en. Aztán indult egy webes galéria, ami a mobilokat nem támogatta, és a nevetséges 640x480-as vagy még kisebb felbontásban ment csak, bezoomolás nélkül. A 24"-os fullHD monitoron asszem nem kell mondjam, hogy nézett ez ki. Ja és a "RAW"-konverter progi maga is gyermekded volt, a piacon lévő bármihez (tehát nem csak lightroom, hanem a legalja gyártóspecifikus odaröffentéseket is belevéve, amik híresen szarok szoktak lenni) hasonlítva, ami a funkcionalitást illeti.
Álmok
Arra ez így nem alkalmas, amit a végén vizonálnak: játékokat ezzel megvalósítani. Legalábbis nem FPS-eket. Inkább a régi "szobás" megvalósítású puzzle játékokra kell gondolni, ahol fix nézőpontok közt lehetett váltogatni.
A GC beillesztéssel nagyobb probléma, hogy a beillesztett CG helyén kell információ. ezért szoktak reflektív krómgömböket bedobni néha, már ha nem greenscreen az egész. Ezeket a gömböket pl leválthatná a cucc. Csak hát a cuccot több ezer dollár bérelni, és a gömbbel is nagyjából elvannak a CG művészek. Néhány ilyen és olcsóbb teljesen greenscreen-nel megoldani az egész jelenetet. A tökéletes árnyékolást és fényjátékot egyébként csak úgy lehetne megoldani, ha egy beillesztés körvonalát követő szenzorrengeteget raknának minden egyes beilleszteni kívánt CG cucc helyére.
Arra használható, hogy sokkal könnyebb legyen elválasztani, hogy mit kellene felülfesteni a bevágott CG-vel, és minek kell takarni a CG-t. Mármint az adott nézőpont-buborékból nézve. A bökkenő azonban megint csak az ár, ami miatt consumer cuccokban nem használható: láttad azt a szervert a demo videóban, amire mondják, hogy kell a felvételhez? A cikk szerint az egy órányi adatot tárol. Namost ez kéne ahhoz, hogy ténylegesen "élő" legyen a játék, jobban mondva ezt kéne kombinálni a CG effektekkel, on-the-fly. A fejmozgást természetesen lekövetve, érezhető késleltetés nélkül. Minden egyes felhasználónál, lokálisan. Not gonna happen. :)
Hagyományos filmek
Arra is használható lenne, hogy filmezésnél post production-ban pontosítson az ember a kamera nézőpontján. Azonban ezzel egy van egy hatalmas probléma: a profi szegmensben egyszerűen nem szükséges ez. Ha elbasztad, nem vagy profi, (előre lebeszélik, hogy mit hogyan is képzel el egyáltalán, másfelől ma már azonnal felvétel után visszanézik, és ha nem tökéletes, a rendező azonnal mondja, hogy mit hogyan kéne korrigálni a következőre) vagy az a legkisebb probléma (mert nincs kialakult concept arról, hogy hogyan is kéne forgatni). Tehát a kezdőknek lenne jó, akiknek viszont túl drága.
Arra lehetne használni, hogy mondjuk ne xyz-t vegyék, hanem a mellettük ülő párocskát, de ez meg egyfelől bármelyik gömbpanorámás kamerával megoldható, másfelől ami alapvetően nincs képben, azt költségkímélés miatt nem is szokták annyira kidolgozni. Esetleg dzsungeles dokumentumfilmekhez lehetne használni, amikor gőzöd nincs, hogy mikor honnan ugrik a majom, de ahhoz megint csak túl drága, túl körülményes. Vagy tömegjeleneteknél, amik ugyan nem tartanak sokáig, de ott talán tényleg használható lenne ez a cucc. Legalábbis azon szögekben, ahol nem látszanak a stábtagok, és csak azon snittekben, ahol épp nem kell a főhősöket mutatni. :D
speckók?
Ezek mellett persze két nagyon fontos dologról egyáltalán nem beszélnek: használható felbontás és dinamikatartomány. Filmgyártásban ha ez a kettő nincs meg, akkor lehet bármekkora újítás, egyszerűen nem használható. (Meg van még néhány dolog.) Fogalmazzunk úgy, hogy a korábbi modellek dinamikatartományban sem voltak túl jók. Kb kompakt kamerák szintjén mozognak, ami a nevetséges kategória bármilyen komolyabb dologra. A használható felbontásról pedig annyit mondok, hogy én kiszúrom egy 1080p-s monitoron, ha egy 4K youtube videó GoPro-val készült. A profik nálam kíméletlenebbek.
szvsz
Namost nem azt mondom, hogy 100%-osan haszontalan a cucc. De nem világmegváltó. Egy gömbkamera, extra opcionális elmosással, és elvileg némileg módosítható nézőponttal. Hogy ez utóbbi mennyire működik azon a 60 centi sugarú gömbön belül, azt majd meglátjuk. Szvsz ne várjunk tőle nagy dolgokat, főleg ne capslockkal írva. :)
A csúf
Végére a legrandább dolog: sehol egy tényleges videó vagy kép. A demovideó végén a kisbetűs figyelmeztet, hogy csak concept artot nézel. Erős a gyanúm, hogy néhány CAD renderen és egy ötleten kívül nincs másuk. Legalábbis semmi, amiről tényleges képet vagy videót adhatnának ki.
Kicsit messzebb mentél a követelményekkel, mint amit én kinéztem a cuccból :)
Szóval hogy egyértelmű legyek: jelenleg nincs olyan cucc, amivel érdemlegesen lehet VR HMD-vel nézhető felvételt készíteni. A VR-ben alapkövetelmény, hogy a fejmozgás le egyen követve, és szembe vetített kép ezt hűen lekövesse, és ezt egyszerűen semmilyen sztereoszkopikus 3D kamerarendszer nem tudja.
Tehát ha csak azt tudja a cucc, hogy van a fejnek 60 cm mozgástere és 360 fokos elforgatási szabadsága minden irányba statikus tartalom lejátszása során, már akkor is egy abszolút hiánypótló eszközről beszélünk, ami bizonyos tartalmaknál létfontosságú, mert különben nem működne VR-ben. Az állítható fókusztávolság ebből a szempontból leszarandó jellemző.
Jogos észrevétel, hogy egy ilyen felvételnek limitált a felhasználási köre, és akkor minek az egész. Én erre azt mondom, hogy pont nem a játékokban kell keresni a helyét a VR videóknak, hanem a kazsuál felhasználók körében. Ilyen mundán dolgok, hogy ül az ember egy velencei kávézó teraszán és szabadon bámészkodhat. Vagy kevésbé hétköznapi helyzetek, mint a fókák között a strandon, vagy cápák között a víz alatt, vagy a Himalája tetején, vagy a ... Ilyen felvételekkel el lehet adni a VR-t bárkinek, mert olyan dolgokat tapasztalhatnak meg az élőhöz legközelebbi közelségben, amit ismernek, de talán nem is tapasztalhatják meg a valóságban.
Gazdasági szempontokat figyelembevéve is vannak előnyei. Ahhoz, hogy megfelelően fotorealisztikus, részletgazdag legyen a valósídejű rendering 90+ fps-sel 4k-ban sokezer dolláros vassal kell rendelkezni. Statikus felvétel lejátszása valószínűleg mehet jóval olcsóbb hardveren is. Tartalomkészítői oldalról a fentebb említett velencei kávézó környezetének részletgazdag lemodellezése és animálása emberekkel, járművekkel, stb., több munkahónapot venne igénybe. Egy ilyen felvétel elkészítése viszont párezer dollárból egy nap alatt meglenne.
Én látom benne a kraftot. Persze a képminőségen áll vagy bukik, de itt nagyságrendekkel komolyabb belsőt engedhetnek meg maguknak mint a konzumer cuccoknál, és én azért vagyok bizakodó, hogy ezzel kinövi a Lytro a gyermekbetegségét.
Na most létezik ilyen VR Headset amit eleve ezzel fejlesztettek, vannak a weeben fellelhető barkács megoldások amiket bármelyik HMD-re rá lehet hackelni, valamint az Oculus részéről is elhangzott olyasmi, hogy a következő termékbe már szeretnék ők is beépíteni. Az más kérdés, hogy konkrétan mit tudnak ezek a megoldások majd nyújtani.
Ami engem érdekel az a light field téma. Ha jól sejtem ilyen kijelzőkhöz való kép renderelése nagyságrendekkel több adat, mint a "sima 2D". Valahol olyasmit láttam, hogy valaki hitetlenkedett a Google megoldásának annyival jobb lenne a látószöge az MS HoloLens-nél mint amit regélnek, mert a HL-nek 5 Mpixelnyi képet kell kipakolnia, akkor a másik szemüvegnek már 80Mpixel(!)-re lenne szüksége. Igaz nem tudom hány rétegű lehet a kép, mert elvileg már két réteggel működhet, de találtam direkt ilyet barkácsoló oldalt, ott alapból hárommal indítanak. A Leia3D nevezetű "holo" kijelző meg valami 60 réteget tartalmaz cserébe borzalmas felbontással és színekkel.
A Lytro technológiája a felvétel készítéséről szól, nem a kijelzőről. Egy mikrolencse-mátrixot helyeznek a CCD elé (azért jóval kisebb a felbontás azonos méretű CCD esetén, és azért remélem, hogy ennek normális felbontása lesz, mert sokkal több CCD fér a gömbbe), és matek, és adat, és matek, és kép. Hogymondjam, ez a lightfield nem az a lightfield, amit a kijelzőknél használnak :) A Lytro kamera által felvett anyagot "hagyományos" HMD-ken lehet majd nézni első körben, és bár nem triviális a lejátszás hardverkövetelménye, rögzített felbontású anyaghoz, adott felbontású kijelzőn változatlan a számítási követelmény, ami mindenképpen előny a 3D geometria rendereléséhez képest.
Elég reklámszagú, de elfér itt:
The Verge: Microsoft and Volvo's new HoloLens showroom is fascinating and frustrating
Steam: mrstrato
Cserekulcs listám
PSA: elvileg dec 1.-től a Valve elkezdi postázni a saját VR rendszerét. Persze először csak amcsiknak.