Jama Jurabaev:
An amazing 360 panoramic concept done by one of my students Tatiana Sherbul.
Make sure you pan around.
This and more advanced stuff will be a part of my next course on learnsquared.
Exciting times.
Felhasználják, csak a csávó munkamódszerei olyanok hogy néha az egészet újra kell építeni a használhatósághoz. Viszont embertelenül gyorsan bírja tolni ezeket, napokban meg néha órákban lehet mérni egy komplett izé elkészítését :D
A 3D is pont ezért előny, mert nem maradnak tisztázatlan kérdések, nincs olyan para mondjuk hogy az elölnézet meg a hátulnézet nem illik össze ;)
Amúgy a fószer igazi(!) robotokat is designol, nézz csak körül a weboldalán...
rwurl=https://www.youtube.com/watch?v=4MnU7ICNaEo
1. Feltételezem, hogy ez is digic munka. Ha igen, ha nem, faszagányos.
2. Van bárkinek ötlete, elképzelése, leírása, hogy hogy a vérbe sikerült megcsinálni a festett hatású (feltételezhetően továbbra is 3D-s) jeleneteket? Ugyanis az itthoni kis pet projektem kb pont erről szólna, de egyelőre még csak kutatom, hogy mi lenne a legkézenfekvőbb megoldás.
A legkézenfekvőbb amit el tudok képzelni, hogy a modellek kaptak egy festett textúrát. Valamiben ki lettek renderelve a jelenetek és utómunkában frame by frame az egész fölé festettek az artistok.
+rengeteg matte paint.
Az egyetlen számomra homályos dolog itt a render engine és a beállításai, de azt ki lehet kísérletezni.
Jó irányba tapogatózol; azt tenném még hozzá, hogy nagyon komplikált, munkaigényes, plusz a végén az ügyfél is belenyúlkált még, de többet sztem nem mondhatok.
Azt azért még megkérdezném, hogy a textúrák amiket az egyes karakterekre festettetek kaptak valamilyen más mapot is diffuse-on kívül, hogy valamilyen formában az anyagok reagáljanak fényhatásokra, vagy rögtön az adott jelenet, kamera és fény beállításaihoz képest lett festve a textúra is és ennek okán csak abban a beállításban "működnek"? Vagy az ilyen már utómunkában történt? Egyáltalán érthető amit írok?:D
Lehet ez már túl techniaki és nem mondhatsz semmit:(
Az előző verziójával dolgoztunk, eszement sok baj volt vele. És még csak nem is az hogy a licenszelő (az ügyfelünk, akinek a rigjeivel dolgoznunk kellett) összecsapta a shape-eket (mert igen) hanem hogy maga a rig tele volt átgondolatlan faszságokkal.
Baszom sok időt töltött el nálunk pár ember (pl én is) azzal, hogy visszalapátolja a szart a lóba utánuk.
Itt se tudom eldönteni hogy mennyi az amit az asset rátesz, mert az most is fasza. De eleve ezekkel az arcra rakott faszom kontrollerekkel dolgozzon az, akinek két anyja van...
Szóval ez egy reklám videó egy termékhez, így tessék nézni. Az intelligens mosópor reklámokra se szokás rágerjedni, nem? :)
Ez a Maleficent-es kép tök jól néz ki (mármint használhatóság szempontjából), egyébként meg ilyen értékbeírogatósra tippeltem volna, ja, thx (bár te is draggelgetést említesz) :)
Amúgy a Snappers rigben nem csak az volt gáz hogy az arcra rakták a kontrollokat; ez annyiban para hogy
1. nem lehet könnyen észbentartani, csak nagyon sok gyakorlás után hogy melyik mit is csinál, főleg ha elmásztak már vmi arckifejezés miatt
2. alapból a translate X / Y / Z csatornákat kell kulcsolni, de tök random állnak a space-ek is és van amikor nem arra mozog a kontroller mint akarod
3. viccnek van pár dolog ami viszont custom attribute, és ahhoz meg channelboxba kell klikkelni és nem translate-et használni
De még azon felül totál elbasztak még sok mindent, nem FACS alapú volt a rig, voltak tök redundáns vagy ellen-animációt megkövetelő kontrollok (3 féle csücsörítés, 2 féle mosoly stb), voltak indokolatlanul összevont dolgok, és korrektív shape-ek hiányában minél több kontrollt mozgatott egyszerre az animátor, annál jobban esett szét az arc.
Összességében valami másfél-kétszer annyi kontrollja volt, de mégsem tudott nemhogy többet mint a mi rigjeink, de sokszor még annyit se.
Szóval így demó videóban azt látod hogy ez is mozog meg az is, de csak külön-külön mutatták az elsővel (másodikban picit jobban belemennek), meg nem láttad hogy milyen vele ténylegesen melózni (szar), meg volt alatta egy art szempontból nagyon faszán megcsinált asset meg egy fasza viewport shader, amivel a parasztvakítás részt jól letudták.
Animátornak muszáj interaktívan néznie hogy mennyire is kell rátolni az adott kontrollt.
Egyébként pont ezért esnek ki a mindenféle arcizom-szimulációk (esélytelen a realtime), meg ezért tartom én jobbnak a weta elvét, hogy legyen minden fő mozgás benne a mayás arcban és ne legyen még azon mindenféle displacement, amit nem is látni animáció közben.
A Digital Domaines rigek (Maleficent) azok ilyenek, lehet azokkal is jót csinálni, de én akkor se hiszek benne (főleg a mi határidőinkkel, mert piszok komplex a workflow).
Ja igen, ez kimaradt, szóval facial capture... Két fő iránya van, a direkt meg az indirekt.
Az első a régebbi eredetű, amikor az arcon lévő markerek trackelése 3D mozgás adatot generál.
Ezt lehetett csinálni régóta a Vicon rendszereivel, amikor a kis bogyókat kellett az arcra ragasztani, de ehhez rohadt sok kamera kellett a komplett aktív tér megfelelő lefedésére. Így is pontatlan volt, meg lassú, meg drága.
Van azóta két fő másik módszer is erre, amiknél már csak az arcot figyeli a kamera. A Mova rendszernél egy UV-reaktív sminket kell az arcra kenni, annak a szemcséit nézik és jó 10000 pontot követnek. Viszont ez a 4 kamera totál statikus kell legyen, az alanynak egy székben kell ülnie, ezzel az a fő baj hogy lehetetlen a test és fej mozgásával megfelelő szinkronban előadni az arcjátékot. A Digital Domain ezt használta a Benjamin Buttonnál, meg ezzel csinálták az arcok átalakulását a HP7 elején is amikor mindenkiből Harry lesz.
A DI4D-ről meg csak mostanában hallottam, ez sztereo fejkamerával és optikai trackeléssel működik, és jó 2000 pontot követ. Ezt meg pl. a Blur használta mostanában mondjuk a Far Cry 5 traileren.
De mindenképpen van pár fontos hátránya ennek a direkt megközelítésnek.
Először is nagyon nehéz bármi más arcra rárakni a mozgást (idősebb/fiatalabb verzió, másik ember, bármi fantázialény).
Másodszor, még 10000 pont sem elég az igazán finom arcmozgások (főleg ráncolódások) lekövetéséhez, és ráadásul az ajkak peremén és a szemhéjakon belül nem működik, tehát eleve olyan faceriget kell építeni, amibe ezt valahogy additíven (és a fő arcmozgással szinkronban!) rá lehet animálni.
És ami a legnagyobb baj, a felvett arcmozgást sehogy se lehet átanimálni, még az időzítésbe se lehet belenyúlni.
Szóval már jó régóta elkezdtek foglalkozni az indirekt megközelítéssel.
Itt az a módszer, hogy a trackelt pontok mozgását elemzi egy szoftver (solver), és megpróbálja értelmezni azokat és egy véges számú elemi arckifejezés kombinációira lefordítani. Ezek az elemi arckifejezések megfelelnek a facerig animációs kontrolljainak, tehát a végeredmény egy metaadat, animációs görbék a kontrollokon. Ja, és a szoftver az írisz mozgását is tudja követni, hiszen arra nem kell marker, elég kontrasztos, jól "látni"; meg persze a solver "tanítható" is, és kellő kiképzéssel egyre hatékonyabban találja el a megfelelő kombinációkat.
A nagy előnye nyilván az, hogy bármilyen színésszel lehet bármilyen arcot vezérelni, így volt értelme pl. Cumberbatchből kiindulni Smaughoz, Serkis komplett munkásságáról nem is beszélve :)
Plusz mivel anim görbéket generál, ezért azokat lehet szabadon szerkeszteni, föléjük animálni, vagy kompletten le is cserélni, szóval sokkal nagyobb szabadságot ad a rendezőnek is meg az animátoroknak is.
A hátránya meg leginkább az, hogy ilyen solvert írni idő és pénz és nagyon jó szakemberek. Nem véletlenül nyereget a Weta meg az ILM mindenféle technikai Oscarokat a cuccaival ;)
Sima kereskedelmi forgalomban viszont nincs igazán jó solver (Faceware megyeget), illetve szolgáltatásként (másodperc áron) elérhető még a Cubic Motion (tehát tőlük nem lehet megvenni az amúgy elég jó solverüket).
Meg persze azt a faceriget is meg kell még építeni, ami elég sok meló (hetek-hónapok), és nagyon jó szemű-kezű artistok kellenek hozzá.
Ja és a vége: szóval capture ide meg solver oda, a végén azért nagyon is sok kézi meló van ezekben, nem is csak a solver betanításában. Animátorok ugyanúgy kellenek ide is, mint a test mocaphez, és ugyanúgy nem csak javítgatni, hanem sokszor a felvett performance-t átértelmezni, vagy akár teljesen lecserélni. Szóval ezért kell egy jó kézzel is animálható facerig :D
Elég fasza!
rwurl=http://i.imgur.com/fwnk2J1.jpg
http://raoninery.com/?portfolio=venom-2
Mi voltunk azok, a Vándorok.// Kik sohasem nyugszanak. / Kik sohasem haltak meg. / Kik sohasem éltek.
https://www.facebook.com/photo.php?fbid=1348892778474152&set=a.120432831...
Mi voltunk azok, a Vándorok.// Kik sohasem nyugszanak. / Kik sohasem haltak meg. / Kik sohasem éltek.
Megjottek quixelhez a megascannek. Eleg zsir.
rwurl=https://youtu.be/BnSekpFSLnU
Choose your next words with excpetional care!
vótmá :D kösz Dulakh
Ember nem irányíthatja sorsomat; semmiképp sem olyan, aki szélirányból támad és bűzlik a fokhagymától
ugyanaz, YT:
rwurl=https://youtu.be/RLK9WeGJF7o
Mi voltunk azok, a Vándorok.// Kik sohasem nyugszanak. / Kik sohasem haltak meg. / Kik sohasem éltek.
Mayasoknak egy kellemes, ingyenes python script:
https://www.linkedin.com/pulse/super-bool-tool-python-leonardo-iezzi
Akinek humora van mindent tud, akinek nincs az mindenre képes.
Akinek humora van mindent bír, akinek nincs az mindenre kényes.
Death Stranding
rwurl=http://i.imgur.com/aJu7AhF.gifv
Vitaly Bulgarov képességeire nem igazán vannak szavak...
https://vitalybulgarov.com/ghost-in-the-shell/
Concept artist, node ez itt mit jelent, a 3D modellt fel se használják a véglegesnél, csak látványterv?? Látom, a Battle Angel Alitán is dolgozik.
Angol tudósok szerint a fenti hozzászólás nemcsak a szerző, hanem egyben az egész emberiség egyetemes véleményét is tükrözi.
Felhasználják, csak a csávó munkamódszerei olyanok hogy néha az egészet újra kell építeni a használhatósághoz. Viszont embertelenül gyorsan bírja tolni ezeket, napokban meg néha órákban lehet mérni egy komplett izé elkészítését :D
A 3D is pont ezért előny, mert nem maradnak tisztázatlan kérdések, nincs olyan para mondjuk hogy az elölnézet meg a hátulnézet nem illik össze ;)
Amúgy a fószer igazi(!) robotokat is designol, nézz csak körül a weboldalán...
:(
Meg tudok őrülni amikor ilyeneket látok.
Choose your next words with excpetional care!
rwurl=https://www.youtube.com/watch?v=pX4Z-_zCRmk
pofásan összerakott reel, mondjuk a lények animációja annyira nem jön be, de az ojjektum meg főleg a particle effektek szerintem ütősek
Ember nem irányíthatja sorsomat; semmiképp sem olyan, aki szélirányból támad és bűzlik a fokhagymától
rwurl=https://www.youtube.com/watch?v=4MnU7ICNaEo
1. Feltételezem, hogy ez is digic munka. Ha igen, ha nem, faszagányos.
2. Van bárkinek ötlete, elképzelése, leírása, hogy hogy a vérbe sikerült megcsinálni a festett hatású (feltételezhetően továbbra is 3D-s) jeleneteket? Ugyanis az itthoni kis pet projektem kb pont erről szólna, de egyelőre még csak kutatom, hogy mi lenne a legkézenfekvőbb megoldás.
Choose your next words with excpetional care!
A legkézenfekvőbb amit el tudok képzelni, hogy a modellek kaptak egy festett textúrát. Valamiben ki lettek renderelve a jelenetek és utómunkában frame by frame az egész fölé festettek az artistok.
+rengeteg matte paint.
Az egyetlen számomra homályos dolog itt a render engine és a beállításai, de azt ki lehet kísérletezni.
Esetleg ennél jobb megoldás?
Choose your next words with excpetional care!
Jó irányba tapogatózol; azt tenném még hozzá, hogy nagyon komplikált, munkaigényes, plusz a végén az ügyfél is belenyúlkált még, de többet sztem nem mondhatok.
Mindenesetre köszi :)
Nagy kár:(
Azt azért még megkérdezném, hogy a textúrák amiket az egyes karakterekre festettetek kaptak valamilyen más mapot is diffuse-on kívül, hogy valamilyen formában az anyagok reagáljanak fényhatásokra, vagy rögtön az adott jelenet, kamera és fény beállításaihoz képest lett festve a textúra is és ennek okán csak abban a beállításban "működnek"? Vagy az ilyen már utómunkában történt? Egyáltalán érthető amit írok?:D
Lehet ez már túl techniaki és nem mondhatsz semmit:(
Choose your next words with excpetional care!
Kb annyit mondhatok, hogy sok tipped jó lehet, meg hogy van benne sok Houdini Magic...
Csak, hogy ne csak mindig a Digic kapja az összes rivaldafényt:)
rwurl=https://vimeo.com/234651220
Choose your next words with excpetional care!
...és akkor Digic. :)
http://24.hu/tech/2017/09/22/a-legmenobb-magyar-videomagusok-akar-75-mil...
Mi voltunk azok, a Vándorok.// Kik sohasem nyugszanak. / Kik sohasem haltak meg. / Kik sohasem éltek.
Mondjuk az kizökkentett, hogy miért karddal a hátukon játszanak. :)
Vill du bli ihop med mig?
rwurl=https://www.youtube.com/watch?v=Vo_FALeUc8c
Akinek humora van mindent tud, akinek nincs az mindenre képes.
Akinek humora van mindent bír, akinek nincs az mindenre kényes.
Van egy olyan érzésem, hogy ez sem a kis indie stúdióknak lesz megfizethető.
Choose your next words with excpetional care!
Az előző verziójával dolgoztunk, eszement sok baj volt vele. És még csak nem is az hogy a licenszelő (az ügyfelünk, akinek a rigjeivel dolgoznunk kellett) összecsapta a shape-eket (mert igen) hanem hogy maga a rig tele volt átgondolatlan faszságokkal.
Baszom sok időt töltött el nálunk pár ember (pl én is) azzal, hogy visszalapátolja a szart a lóba utánuk.
Itt se tudom eldönteni hogy mennyi az amit az asset rátesz, mert az most is fasza. De eleve ezekkel az arcra rakott faszom kontrollerekkel dolgozzon az, akinek két anyja van...
Szóval ez egy reklám videó egy termékhez, így tessék nézni. Az intelligens mosópor reklámokra se szokás rágerjedni, nem? :)
Merthogy egyébként mivel szokás az ilyet csinálni?
Monas apó legyintett. Két kézzel is.
mocap ? Mármint ha a teljes jelenetet fölveszik, mondjuk egy beszédnél mocappal akkor az kész is... De lehet, hogy nem ilyen egyszerű... :D
zenész-zeneszerző, humorista, filozófus ?, great/terrible coordinátor, játékfejlesztő, rannygazoo csatár, 50% hipster 50% redneck 50% retard, pókfocikapus, yarpler, hangmérnök
Két fő megközelítés van erre amit eddig láttam érdemi helyeken
Egy NURBS curve-ökből összerakott tolókás dolog külön ablakban és/vagy a fej mellett lebegve (mi ezt csináljuk)
Kb ilyenek lehetnek:
https://i.pinimg.com/736x/cf/fa/60/cffa60f633ec26b132e113cacaeb3dd9--disney-maleficent-disney-s.jpg
https://i.pinimg.com/564x/e9/8a/bb/e98abbcd3fe03f776d628e8a3f2f796e--rigs-the-face.jpg
Vagy a channel boxban van minden, nevekkel, és középső gombbal dragelgetve lehet állítani:
rwurl=http://i0.wp.com/www.cgmeetup.net/home/wp-content/uploads/2013/03/Weta-D...
http://i.picpar.com/44jb.png
(és igen sztem is "elég sokat" "átvett" a Wetától a Naughty Dog :)
Ez a Maleficent-es kép tök jól néz ki (mármint használhatóság szempontjából), egyébként meg ilyen értékbeírogatósra tippeltem volna, ja, thx (bár te is draggelgetést említesz) :)
Monas apó legyintett. Két kézzel is.
Amúgy a Snappers rigben nem csak az volt gáz hogy az arcra rakták a kontrollokat; ez annyiban para hogy
1. nem lehet könnyen észbentartani, csak nagyon sok gyakorlás után hogy melyik mit is csinál, főleg ha elmásztak már vmi arckifejezés miatt
2. alapból a translate X / Y / Z csatornákat kell kulcsolni, de tök random állnak a space-ek is és van amikor nem arra mozog a kontroller mint akarod
3. viccnek van pár dolog ami viszont custom attribute, és ahhoz meg channelboxba kell klikkelni és nem translate-et használni
De még azon felül totál elbasztak még sok mindent, nem FACS alapú volt a rig, voltak tök redundáns vagy ellen-animációt megkövetelő kontrollok (3 féle csücsörítés, 2 féle mosoly stb), voltak indokolatlanul összevont dolgok, és korrektív shape-ek hiányában minél több kontrollt mozgatott egyszerre az animátor, annál jobban esett szét az arc.
Összességében valami másfél-kétszer annyi kontrollja volt, de mégsem tudott nemhogy többet mint a mi rigjeink, de sokszor még annyit se.
Szóval így demó videóban azt látod hogy ez is mozog meg az is, de csak külön-külön mutatták az elsővel (másodikban picit jobban belemennek), meg nem láttad hogy milyen vele ténylegesen melózni (szar), meg volt alatta egy art szempontból nagyon faszán megcsinált asset meg egy fasza viewport shader, amivel a parasztvakítás részt jól letudták.
Animátornak muszáj interaktívan néznie hogy mennyire is kell rátolni az adott kontrollt.
Egyébként pont ezért esnek ki a mindenféle arcizom-szimulációk (esélytelen a realtime), meg ezért tartom én jobbnak a weta elvét, hogy legyen minden fő mozgás benne a mayás arcban és ne legyen még azon mindenféle displacement, amit nem is látni animáció közben.
A Digital Domaines rigek (Maleficent) azok ilyenek, lehet azokkal is jót csinálni, de én akkor se hiszek benne (főleg a mi határidőinkkel, mert piszok komplex a workflow).
Ja igen, ez kimaradt, szóval facial capture... Két fő iránya van, a direkt meg az indirekt.
Az első a régebbi eredetű, amikor az arcon lévő markerek trackelése 3D mozgás adatot generál.
Ezt lehetett csinálni régóta a Vicon rendszereivel, amikor a kis bogyókat kellett az arcra ragasztani, de ehhez rohadt sok kamera kellett a komplett aktív tér megfelelő lefedésére. Így is pontatlan volt, meg lassú, meg drága.
Van azóta két fő másik módszer is erre, amiknél már csak az arcot figyeli a kamera. A Mova rendszernél egy UV-reaktív sminket kell az arcra kenni, annak a szemcséit nézik és jó 10000 pontot követnek. Viszont ez a 4 kamera totál statikus kell legyen, az alanynak egy székben kell ülnie, ezzel az a fő baj hogy lehetetlen a test és fej mozgásával megfelelő szinkronban előadni az arcjátékot. A Digital Domain ezt használta a Benjamin Buttonnál, meg ezzel csinálták az arcok átalakulását a HP7 elején is amikor mindenkiből Harry lesz.
A DI4D-ről meg csak mostanában hallottam, ez sztereo fejkamerával és optikai trackeléssel működik, és jó 2000 pontot követ. Ezt meg pl. a Blur használta mostanában mondjuk a Far Cry 5 traileren.
De mindenképpen van pár fontos hátránya ennek a direkt megközelítésnek.
Először is nagyon nehéz bármi más arcra rárakni a mozgást (idősebb/fiatalabb verzió, másik ember, bármi fantázialény).
Másodszor, még 10000 pont sem elég az igazán finom arcmozgások (főleg ráncolódások) lekövetéséhez, és ráadásul az ajkak peremén és a szemhéjakon belül nem működik, tehát eleve olyan faceriget kell építeni, amibe ezt valahogy additíven (és a fő arcmozgással szinkronban!) rá lehet animálni.
És ami a legnagyobb baj, a felvett arcmozgást sehogy se lehet átanimálni, még az időzítésbe se lehet belenyúlni.
Szóval már jó régóta elkezdtek foglalkozni az indirekt megközelítéssel.
Itt az a módszer, hogy a trackelt pontok mozgását elemzi egy szoftver (solver), és megpróbálja értelmezni azokat és egy véges számú elemi arckifejezés kombinációira lefordítani. Ezek az elemi arckifejezések megfelelnek a facerig animációs kontrolljainak, tehát a végeredmény egy metaadat, animációs görbék a kontrollokon. Ja, és a szoftver az írisz mozgását is tudja követni, hiszen arra nem kell marker, elég kontrasztos, jól "látni"; meg persze a solver "tanítható" is, és kellő kiképzéssel egyre hatékonyabban találja el a megfelelő kombinációkat.
A nagy előnye nyilván az, hogy bármilyen színésszel lehet bármilyen arcot vezérelni, így volt értelme pl. Cumberbatchből kiindulni Smaughoz, Serkis komplett munkásságáról nem is beszélve :)
Plusz mivel anim görbéket generál, ezért azokat lehet szabadon szerkeszteni, föléjük animálni, vagy kompletten le is cserélni, szóval sokkal nagyobb szabadságot ad a rendezőnek is meg az animátoroknak is.
A hátránya meg leginkább az, hogy ilyen solvert írni idő és pénz és nagyon jó szakemberek. Nem véletlenül nyereget a Weta meg az ILM mindenféle technikai Oscarokat a cuccaival ;)
Sima kereskedelmi forgalomban viszont nincs igazán jó solver (Faceware megyeget), illetve szolgáltatásként (másodperc áron) elérhető még a Cubic Motion (tehát tőlük nem lehet megvenni az amúgy elég jó solverüket).
Meg persze azt a faceriget is meg kell még építeni, ami elég sok meló (hetek-hónapok), és nagyon jó szemű-kezű artistok kellenek hozzá.
Ja és a vége: szóval capture ide meg solver oda, a végén azért nagyon is sok kézi meló van ezekben, nem is csak a solver betanításában. Animátorok ugyanúgy kellenek ide is, mint a test mocaphez, és ugyanúgy nem csak javítgatni, hanem sokszor a felvett performance-t átértelmezni, vagy akár teljesen lecserélni. Szóval ezért kell egy jó kézzel is animálható facerig :D