Jelenlegi hely

Topikok

2018.03.08 - 13:40,cs Hírek Devil May Cry HD Collection: Gondok vannak a PC porttal

A széria első három részének felújított változatát tartalmazó Devil May Cry HD Collection ugyan csak március 13-án érkezik (PC-re, PS4-re és Xbox One-ra), de az Amazon és a Twitch Prime előfizetői számára már elérhető az első epizód PC verziója... csak elég bugosan.

rwurl=https://www.youtube.com/watch?v=sXL70O_Sbpg
A programhibák közül a legviccesebb hardkór rajongók számára akár még új fícsörként is felfogható: ha 60hz-nél magasabb képrfrissítéssel rendelkező monitoron futtatjuk a játékot, Dante hirtelen a szokottnál jóval gyorsabban kezdi el felfedezni a terepet:

rwurl=https://www.youtube.com/watch?v=zgVUySy2Iro
A DMC mindig is szélsebes játékmenettel rendelkezett, de azért ez már egy kicsit túlzás. Aki nem érzi magát elég tökösnek a turbó módhoz, az szerencsére egy kis rajongói segítséggel (na meg a RivaTunerrel) megoldhatja a problémát.

Akadnak a programban egyéb nyalánkságok is, de azok már inkább apróbb technikai fájdalmak, illetve pöttömnyi eltérések az eredeti PS2-es változattól. Hiányzó grafikai effektek, felgyorsított és rosszul ismétlődő hang- és zenei elemek késztethetik fogcsirkogatásra a DMC-fanokat:

rwurl=https://www.youtube.com/watch?v=_1GnqgRU3vI
A Capcom eddig híres volt a minőségi portolásokról és újrakiadásokról, így remélem, mindez csak apró homok az egyébként jól működő gépezetben. Egy hét még hátravan a hivatalos premierig, a hibák pedig nem tűnnek nehezen kiirthatóknak, szóval bőven van esély a javulásra. Lehet, hogy el van átkozva egy kicsit ez a HD Collection elnevezés, elvégre már a Konaminak sem jött össze a Silent Hillel.
2018.03.01 - 07:22,cs Hírek Early Accessben az Ion Maiden

A 3D Realms hosszú várakozás után ma végre bejelentette új játékát, az Ion Maident, amit a Steam Early Access keretében már meg is vásárolhatunk. Íme a bejelentő trélerke:

rwurl=https://www.youtube.com/watch?v=QcAwzusZUrQ
Ha az előzetes alapján nem lenne egyértelmű, az Ion Maiden alatt a Duke Nukem 3D-t, a Bloodot és a klasszikus Shadow Warriort is hajtó Build engine dolgozik (egészen pontosan az EDuke32 nevű source port), így egy 100%-ig autentikus retro lövöldét tisztelhetünk benne. Főhősünk ezúttal a rossz emlékű Bombshellből már ismerős Shelly "Bombshell" Harrison, aki itt még mechanikus testrészek nélkül, egyszerű, ám nagyon badass GDF-tisztként veszi fel a harcot Neo D.C. rosszarcúival.

Aki befizet az Early Accessre, az egyelőre csak egy privjú kampánnyal lesz gazdagabb, de szerencsére nem nyúlfarknyi demóról, hanem egy kövér "shareware epizódról" van szó, mint a régi szép időkben. A Duke 3D modder közösségből verbuvált fejlesztők különösen komplex pályadesignt álmodtak össze nekünk, szóval a hosszú, MIDI-zenével és egysorosokkal színesített szórakozás garantált. Maga a játékmenet elsőre egyébként leginkább Blood-fanoknak fog kézre esni, mivel nagyon sok onnan megismert elem visszatér (nagy örömömre még a rugdosható fejek is :D).

rwurl=https://www.youtube.com/watch?v=ylsUMfP1T3o
Én az első néhány pálya alapján nem nagyon tudok belekötni a játékba: az akció a helyén van, Shelly poénos karakter, a kézzel rajzolt textúrák és sprite-ok gyönyörűek és még olyan apró hangulati elemek is helyet kaptak, mint pl. hősnőnk doomosan animált profilképe. A teljes verzió megjelenése még idén várható, szóval megyek is vágni a centit, a végső simításokhoz pedig sok sikert kívánok a Voidpointnak.

Kritikák az early access verzióról: GGGManlives, Gameinformer, Destructoid.

A játék Steamen, DRM-mentesen pedig GOG-on vagy a 3D Realmstől érhető el.
2018.02.27 - 15:56,k Nagybetűs játékok Silent Hill

Nem akartam ezzel nyomasztani tovább a filmes topikot, szóval inkább ide.

brianaspirin írta: örülök, hogy a két legjobb silent hill-el tudtam játszani a maguk idejében (vagy legalábbis nem sokkal lemaradva) imádtam mindkét részt. legalább 5-6 alkalommal végigjátszottam mindkettőt, a különböző lezárások végett. először nem is tudtam, hogy ilyen van benne, csak csodálkoztam amikor a sztori után újra elindítottam és a ködbe burkolózva először meghallottam a járó láncfűrész hangját :)

utána már tudatosan kezdtem keresni a többi befejezést (neten)

és ezért rendeltem meg ezt a pólót a legutóbbi agdq alatt :)
rwurl=https://i.imgur.com/3OSaMq3.jpg

Egyébként annak ellenére, hogy a 2 és a 3 örvend a legnagyobb szeretetnek (és hogy a Konami a kiadó :D) nem igazán lehet mellélőni a Silent Hill-játékok többségével. A negyedik részt a megjelenés idején pl. nagyon lehúzták sokan, mert az megint erősen különbözik a korábbiaktól (a történet igazából nem SH-ben játszódik, a játékmenet is más, mivel más az irányítás meg zseblámpád sincs), na meg mert elterjedt az a téves pletyka, hogy a Konami "kényszerítette" a fejlesztőket arra, hogy SH címként adják ki. A valóság inkább az, hogy kezdetben nem Silent Hill akart lenni, de ahogy haladt a fejlesztés, a Team Silent rájött, hogy mégiscsak Silent Hill-játékot csinálnak. Végül a fanok is megenyhültek, kultjáték lett, simán oda lehet tenni a 2 és a 3 mellé.

Az első 4 részből igazából az SH1 a leggyengébb, de ez mesterművek között nem igazán szégyen. Az első résszel tulajdonképpen csak az a baj, hogy azon egy kicsit még érződik, hogy miből lett a Silent Hill: a Konami látta, hogy nagy siker a Resident Evil, ezért le akarták koppintani. A koncepció csak annyi volt, hogy csinálni kell egy klónt az amcsi piacra, szóval az elhúzódó fejlesztés közben lett kitalálva minden. Ettől egy kicsit szedett-vedett a játék, a PSX-es technológia meg azóta rohadtul meg is öregedett, de egyébként remek cucc. Istenigazából nagyot nyerhetnénk egy olyan SH1 remake-kel, mint amilyet a Resident Evil 1-nek csinált a Capcom, mert a grafikai ápdét mellett szépen ki lehetne bővíteni a történetet, új angol szövegkönyvet és szinkront lehetne csinálni hozzá, csak a HD Collection után sanszos, hogy a Konami nem tudná jól összehozni.

A Team Silent utáni játékok sem rosszak egyébként, csak ott már azért lejjebb kell venni az elvárásokból. A Downpour az egyetlen, ami nagyon jó fogadtatást kapott a fanoktól, csak kár, hogy pont abból nincs PC verzió, mert nagyon rosszul fut 360-on és PS3-on. Manapság egyedül Xbox One backcompattal lehet jó minőségben és jó teljesítménnyel játszani vele.

2018.02.27 - 02:50,k Cikkek Neural Networks II: How do they work, where can I use them?

rwurl=https://imgur.com/FC1QvBY
In the second article in the series, I am attempting to:
  • Very briefly mention a few examples of all the Neural Network types and branches, since there are many. 
  • Focus on the most oldest and most simple one, the “Fully Connected, Feed Forward Neural Network”
  • Explain in great detail how it works using intuition and graphs, rather than math, to make it easy as possible to understand.
  • Explain the commonly used related terminology.
  • Show a real life example where and how you could use it.
 
The first steps to achieve artificial neural networks were made 75 years ago, and it became one of the hottest emerging technologies in recent years. The original idea was to produce a working mathematical abstraction, how would a biological brain function in theory, as I've mentioned in the previous article.
 
You don't have to be a neuroscientist to have at least a very basic understanding how would a biological brain work. Having a large number of brain-cells called "neurons", that can form connections called "synapses" between each other, based on the various signals that they receive from out body over our lifetime. If you receive a similar experience, the similar neurons will fire up with those connections, so you will remember the given situation easier and react to it faster, more accurately.
 
There are many-many types of Neural Networks branches and sub-branches nowadays, all of them trying to archive being closest to "perfect" solution for the given idea. The search is still ongoing, we still don't know how exactly the biological brain works, but we don't even know if that is the best way to achieve intelligence also. We may going to come up with even more efficient way than our current biological solution, like we did in many other areas in the modern industrial world.
 
Some of main aNN branch examples include the "Feed Forward Neural Networks", that are referred sometimes as "Conventional" neural networks. This is the earliest and oldest solution, based on the idea where neuron connection are "fed-forward" between neurons, so the information can travel through them in simple intuitive way, usually starting from leftmost and ending up in the rightmost positions.
 
The most well-known sub-branches here include the "Convolutional Neural Networks", where the connections are filtered and grouped between neurons, to simplify and scale down large amount of information to abstracted representations. This is generally used for image recognitions nowadays. Other well-known sub-branch is the "Fully Connected Neural Networks". Here, each neuron in a given layer is connected with every single neuron on the previous layer.
 
More modern main branch examples are the "Recurrent Neural Networks", where connections can form circles or reach similar non-conventional connections between each other. Some sub-branch examples can include "Bi-directional NN", or "Long Short-Term Memory NN". The latter example is generally used for speech recognition.
 
"Spiking Neural Networks" are sometimes referred as the third generation of NN, which can activate neuron connection in a seemingly randomly "spiking" way, and are probably the closest real representations of the biological brain solutions nowadays.
 
In this article we are going to deal with (you guessed it), the oldest and simplest one to tackle: the Fully Connected, Feed Forward Neural Networks.
 
Let’s understand step-by-step what do they consist of and how they work first, then later on we can talk about how we can use them.
 
What is a Fully Connected, Feed Forward Neural Network?
 
From the highest level, think of it as a calculating box where on one side you can feed in some information, and on the other side you can receive the calculated results:
 
rwurl=https://imgur.com/A0LWkLq
 
You can have more than one input and output values, technically any number of input or output values you would require, even very large ones:
 
rwurl=https://imgur.com/subBMJW
 
If you open the box, you will see all the neurons some layers separating them. The very first layer is the “input layer” and each neuron there will store an input value. Similarly the very last layer is the “output layer”, each neuron there will store the final output value:
 
rwurl=https://imgur.com/s5iHctX
 
Those in between layers are referred as “hidden layers”. They are called "hidden" because we never see (nor we really care) what happens in them, we just want them to help figure out the right results for out final “output layer”. The number of these hidden layers can be several, but usually a few is enough, as the larger this number gets, the slower all the calculations can take.
 
As I’ve said before, in FCNN each neurons in a given layer are connected to all the neurons in previous adjacent layers. One single connection has to be adjacent, we cannot skip over a layer, and so one connection between two neurons would be represented like this:
 
rwurl=https://imgur.com/x6Wk5VI
 
Connecting one neuron to all from the previous layer can be represented like this:
 
rwurl=https://imgur.com/qzTJiqO
 
After finishing populating all the rest of the connections, the network will look like this, hence the name “Fully connected”:
 
rwurl=https://imgur.com/0RfKlUy
 
Let’s break down this some more. Probably the most interesting component here is the “Neuron”. What would that be and how does it work?
 
This can get fairly “mathy”, but I will try to spare you by avoiding referring to math, and just giving the intuitive explanation whenever I can.
 
If we focus on one neuron, we can see that it can receive many values from one side, apply a summary function that adds these values up, and lastly it will apply a “Sigmoid” function to this sum, before releasing the neuron’s calculated output.
 
rwurl=https://imgur.com/IKKutPg
 
The sigmoid is an “S” shaped function as you can see in this graph, and the purpose of it to transform the sum value between 0 and 1. Even if the sum turns out to be a crazily large or crazily small number for instance, it will always be “corrected” back somewhere between 0 and 1 with this function. We are doing this to simplify working with the data in the network. It’s much simpler to understand the numbers beings closer to 1 as “perhaps yes”, and the numbers being close to 0 as “perhaps no”.
 
rwurl=https://imgur.com/Lz82eVY
 
What do I mean by “perhaps”? As I’ve said in the first article, neural networks by design are not meant for super precise calculations like we would expect from normal computers, but to do good approximations, and they will do better and better approximations as they train more.
 
Going back to our example, let’s assume we have 3 neurons with output values between 0 and 1 somewhere: 0.8, 0.3, 0.5:
 
rwurl=https://imgur.com/HpiYEUE
 
The sum function will add all the received values up.
 
sum(0.8, 0.3, 1.6)  = 0.8 + 0.3 + 0.5 = 1.6
 
After that, the neuron will apply the Sigmoid function to this value so we will squeeze any result back between 0 and 1 somewhere, resulting 0.832 as the output value from this neuron:
 
sigmoid(1.6) = 0.832
 
This would be the formula for the Sigmoid function, for those who would like to see the math as well:
 
rwurl=https://imgur.com/p3Su53a
 
 
If we continue doing this over every neuron, until we get the final output layer, we will get our final calculated values, but you perhaps realized: we would have the same output results every time for the same given input values. In many practical cases we cannot modify the input value since we are receiving them from some other sources, also the summary and the sigmoid function’s behavior is fixed as well, but we would still like to influence and shape the outputted values somehow. Because of this need, we invented the idea of “Weights”, that are basically custom numbers, stored at the connections between the neurons. People usually refer to connections between neurons simply as “Weights”.
 
So how do “Weights” come in play?
Weights are getting multiplied with the neuron output, before that value gets summarized with the rest in the summary function, so for example if all the weights will be 1, nothing would change:
 
rwurl=https://imgur.com/yPchuhO
 
sum (0.8, 0.3, 0.5) = 0.8*1 + 0.3*1 + 0.5*1 = 1.6
 
But if we turn these weight values up or down somewhere, the outputted value can be very different:
 
rwurl=https://imgur.com/idwKgeJ
 
sum (0.8, 0.3, 0.5) = 0.8*-0.5 + 0.3*2.2 + 0.5*0.4 = -0.4 + 0.66 + 0.2 = 0.46
 
Now this solutions would be almost perfect, but people found out over time, that there may still be cases when even applying heavy Weight modifications all around the network, the final outputted values would still not be close to desired numbers, because of the Sigmoid function design. Here was the concept of “Bias” born.
 
“Bias” is very similar to Weights as being a single modifiable arbitrary number, but the difference is that it only applies to every neuron once, in the Sigmoid function, to translate it left or right.
 
Imagine a situation where your final values after applying the Summary function with Weights are converging to near 0. But after applying the Sigmoid function as well, it will bump back the output value to somewhere around 0.5, while you would rather keep that value indication 0.  This is where a Bias can be applied and will basically translate the whole sigmoid function to a direction, modifying the output greatly. Let’s see the difference with a bias of -5 or +5:
 
rwurl=https://imgur.com/Lj0Rk3N
 
As we can see, if we would add a Bias of -5 (red graph) to the summary before applying the Sigmoid function would result the neuron output very close to 1, while with the bias of 5 (blue graph), the output would be very close to 0.
 
So we’re happy now, with all these flexibility we really could archive any desired final output values!
 
The basic concept of “Fully Connected, Feed Forward Neural Network” is established. How or where could we use it?
 
Let’s have a nice practical example: We want it to read written number from 0 to 9. How can we approach this problem with our newly setup Neural Network?
 
First of all, let’s clear our objective: to turn any of these written “three” number images, or any similar ones, to result “3”:
 
rwurl=https://imgur.com/lUsf7X9
 
 
That includes all these written “four” number images, to “4”:
 
rwurl=https://imgur.com/iecL0HO
 
… and so on, so on.
 
We would need to turn all these images to input values first.
Let’s take a closer look at one of them. We can see that it’s been made of individual pixels. 28 rows * 28 columns of them:
 
rwurl=https://imgur.com/zAKEqpT
 
Each of these pixels have a brightness value, some of them are very bright, and some of them are darker. If we represent the brightest “unused” pixels with 0.0 and as they got darker, with a number closer and closer to 1.0, indicating that they have some sort of “activated” values there:
 
rwurl=https://imgur.com/CeYu7a6
 
If we convert all the remaining pixels to number representations as well, and write these values down in one long row, we halve all the input neuron values ready to be processed with our NN, all 784 (28*28) of them!
 
As for the output neurons, the most straightforward is to have one for each desired number (0-9). So 10 neurons in total.
 
rwurl=https://imgur.com/KkJUhGQ
 
If we plug in the digitized values to the input layer, from the image that represents written number three, we would like to receive 0.0 on all of the output neurons, except on the fourth one, that would need to be 1.0 ideally, to clearly represent number “3” ideally. (Implying the first neuron represents “0”, the second “1”, and so on until the 10th neuron, representing “9”.)
 
rwurl=https://imgur.com/CyWDBrz
 
But if we do that, we will find out that the output layer’s neuron values are nowhere near this but show some utter garbage:
 
rwurl=https://imgur.com/30oMUWC
 
That’s because the network haven’t been “Trained” yet.
 
“Training” the network means (re)adjusting all the Weights and Biases over the network to certain positions, so if we plug in the said input values, the network should produce the calculated output closest to possible to the desired ideal output.
 
We could try to manually adjust any the Weight or Bias number to some positive or negative number values, but will quickly realize that with even a fair number of neurons, there are just so many combinations it’s humanly not comprehendible to do so.
 
This is where the concept of “Backpropagation” comes extremely handy.
 
Backpropagation is one of the key features at the neural networks and is a form of a learning algorithms. It’s probably one of the most confusing concepts of it however. Simplifying it as much as possible, the basic idea is to take that utter garbage output from the neural network output, try to compare it our initially desired output, and see how far each of those outputted values are from the desired ones.
 
This number is called the “Error Bias” and if we have this number, the algorithm will try to adjust the weights and biases accordingly, starting from the rightmost layers, and work themselves back until they reach the input layer. We start from the back because the final output is at the back, and the connected Weights and Biases that are affecting that layer directly are in the previous layer, and we apply this idea over each layer.
 
After the Backpropagation is finished, we re-do the Feed-Forward step again and see if we got closer to the given value, by comparing the actual and the desired number again. A proper training can take hundreds, or millions of Feed-Forward and Backpropagation steps, until the network is conditioned to give us the closest numbers to the desired ones. Now we need to do this training process for every new input values and still make sure that the network remains giving valid results for the previous input values as well. You can begin to understand, that properly training a network over large amount of input values, to always outputs accurately close to the desired outputs is extremely hard to archive and usually takes very large number of training steps. But this is where the whole industry is working hard by discovering creative and different ways to approach this difficult issue.
 

 
2018.02.23 - 22:19,p Bugok bug:mobil video

azt vettem eszre, hogy mobilon (legalabbis nalam) minden playgombos media link belelog az avatar-blokkba. majd ha rajovok hiyg lehet screenshotolni,lovok kepet is.

2018.02.21 - 18:08,sze Hírek Age of Empires: Definitive Edition: Tripla löncstréler

Tegnap jelent meg az Age of Empires első részének 4K-s oltárt emelő Age of Empires: Definitive Edition, ami masszívan felújított grafikával, finomhangolt balansszal, modern kezelőfelülettel és egy csodás új soundtrackkel várja a nosztalgiázni vágyó stratégákat. A premierre három darab löncstrélerrel is készült a Microsoft, mert miért ne?

Az első videó az Age-re jellemző fennkölt, nosztalgiafaktort és könnycsatornákat megcélzó stílusban készült:

rwurl=https://www.youtube.com/watch?v=JOEMc0pJHY8
A folytatás egy egyszerű falusi ember életébe enged betekintést:

rwurl=https://www.youtube.com/watch?v=hT3VW401A7E
Végül pedig turistáskodni hívnak bennünket:

rwurl=https://www.youtube.com/watch?v=t5EDgNjEbdM
Igazán ötletes és vicces megoldás így promózni a játékot, de a löncsnek sajnos akad egy szépséghibája: a bejelentésnek megfelelően az AoE:DE maradt Windows 10-exkluzív, így csak és kizárólag a Windows Store-on keresztül érhető el. Természetes törekvés, hogy a Microsoft szeretné felfuttatni a saját platformját, azonban az Age of Empires esetében a második rész HD változatával már sikerült Steamre szoktatni a felhasználókat, így a megjelenés napján minden bizonnyal nem számítottak nagy tolongásra a Definitive Editionért. Ennek első bizonyítéka, hogy a Microsoft eddigi, a steames megjelenést illető kommunikációja változni látszik.

Indultunk onnan a bejelentéskor, hogy a játék Windows 10-exkluzív, és az is marad. A közönség a Windows Store népszerűtlensége miatt nem repesett az örömtől, így januárban jött a tűzoltás: a Valve miatt marad el a Steam-verzió, mivel a Steam nem támogatja a játék által használt Xbox Live-rendszert, mondta akkor Jörg Neumann producer. Ennek a nyilatkozatnak is elég nagy röhögés lett az eredménye, szóval néhány napon belül tompítottak is egyet rajta, most, a premier után pedig lássanak csodát, itt van Adam Isgreen, hogy kvázi bejelentse a Steam-verziót.

Isgreen a PCGamesN kérdésére elárulta, hogy a játék a jövőben még feltűnhet a Valve platformján, egyelőre azonban "nem árt egy kis versengés a piacterek között", így a csapat az UWP-verzió csinosítgatásán dolgozik. Ha ezzel elkészülnek, "meglátjuk, merre tovább", nyilatkozta a játék kreatív direktora. Ez bizony pálfordulás a kezdeti elzárkózás után, szóval várjuk szeretettel a Steam-verziót.
2020.11.18 - 03:52,sze Kész (kesz) Bug: Streamable

Bocsi lassan úgy érzem ezeket csak én posztolom, de ha már megláttam bedobom ide:
http://www.rewired.hu/comment/153115#comment-153115

Régi posztokban nálam nem játssza le a videót, csak áll az üres kép 0 mp-nél.

rwurl=https://streamable.com/1lg4l

Úgy látom újralinkelve megy?! Viszont látszik, hogy máshogy ágyazódik be, bedobja középre stb.

2018.02.09 - 11:36,p Cikkek Megszavazta a nép: Monster Hunter: World betekintő

A rövid verzió: Bedőltem a marketingnek, de kicsit sem bántam meg!

Kifejtés: Van valami ezekben a típusú játékokban, ami erősen vonz, megmagyarázhatatlanul. Óriás szörnyek, látványos fegyverek, beindul a nyálelválasztásom, ha ilyet látok. Nézegettem a MHW béta videókat, és nagyon tetszett, amit láttam. Aztán elkezdtek befutni az értékelések, és mindenki szerette: a kritikusok és a játékosok is. Pont eladtam pár társast, gondoltam egye fene, megveszem az Xbox One verziót. Ez volt a megjelenés napját követően, azaz úgy másfél hete. Azóta beletettem a játék szerint 79 órát, és még csak a 16. küldetésnél vagyok a 25 lépéses story questben.

Rögtön kezdem a negatívummal: Sima Xbox One S-en nem fut szépen a játék. Eleve nem is full HD, hanem valamivel kisebb felbontás (850p körüli, szerencsére nem 720p), és valami adaptív technikának „hála”, mozgás közben a játék grafikája erősen elmosódott, néhol majdnem szemet bántó. Viszont ennek köszönhetően a 25+ FPS stabilan megvan, szóval valamit valamiért, de azért ez kicsit csalódás volt. Nagyon nem olyan a kinézet, mint az újabb generációs konzolokon. Persze önmagában azért szép, meg 2 perc után megszokja az ember szeme, de azért mégis szomorkodtam miatta. 

A játék maga viszont bőven kárpótolt. Röviden arról van szó, hogy a rendlekezésre álló 5-6 terület valamelyikére bemész, megkeresed az épp aktuálisan vadászott szörnyet, majd agyonvered egyedül, vagy 3 másik játékossal egyetemben. És ennyi. Nincs túlspilázva, nincs mindenféle nyakatekert indoklás, csak egy egyszerű kérés: „Tábort vernénk a dzsungelben, de ott ólálkodik ez a rohadék, verd má' le!”. 

Viszont a felkészülés a vadászatra, na az megér egy misét. Először is, ott vannak a fegyverek. Az a helyzet, hogy a játékban 14 különböző fegyverfajta van, és mind a 14 teljesen másmilyen játékstílust igényel. És itt most nem arra gondolok, hogy pl. ott a négy lőfegyver, és mind a négy kb. ugyanazt csinálja, csak más animációval, meg az egyik AOE, a másik meg single target... Teljesen más animációk, kombók, gombok tartoznak az egyes fegyverekhez. A gunlance melee távban hatásos, lehet vele ütni is, és kitérés helyett pajzzsal blokkolsz. Az íj középtávú fegyver, rohangálsz a szörnytől pár méterre, ugrálsz előle, míg a két blowgun közül a heavy a nyers sebzést adja, a light pedig mindenféle státusz effektet. Ha ez nem lenne elég, a lőfegyvereknél mindenféle elemű és spec hatású lőszert használhatsz – és nyilván a fegyvereket fejleszteni is kell. Többféle fa áll rendelkezésre a fejlesztéshez... oké, hogy hosszúkard, de acél vagy csont? A csont többet sebez, de hamarabb életlenedik (fontos szerepe van a játékban az élességnek, rendszeresen fenni kell a fegyvert), az acél jobban bírja. És mindkettőnek számtalan fejlesztési ága van, elemi sebzések (tűz, víz, villám), kritikus sebzés, státusz effektek (mérgezés, fárasztás, stun); rengeteg a lehetőség. És akkor ott a számtalan páncél szett, minden darabon egy vagy több speciális skill, amit csak páncéllal/nyaklánccal lehet megszerezni...

rwurl=https://www.youtube.com/watch?v=DW2SAnxOBCMAztán ott vannak a mindenféle craftolható segédletek. Százféle ital, csapdák, kenőcsök, távcső. Sőt, van egy karra szerelhető csúzli; na ahhoz is ezer féle lövedéket lehet készíteni. És persze gyűjteni, a gyűjtögetés fontos! Persze indulás előtt még nem árt enni sem a kantinban, ahol a macskák (igen, japán játék, a szakácsok macskák, és szólóban van egy palico, azaz macska társad, akinek szintén gyártatod a felszerelést, cserébe segít a harcokban) a számtalan ételfajta közül elkészítik azt, ami éppen szükséges (sokféle buffot adnak).

Aztán elindulsz, és tátod a szád néha, olyan dolgok történnek a játékban. Az adott térképen általában 3-4-féle főboss van, de mellette számtalan kisebb hecsedli is – ezeket nem kötelező ütlegelni, simán elkerülhetők többségében. Szaladgálsz körbe, kutatod a nyomokat – minden megtalált nyomért pontokat kapsz, ha elég sokat elérsz, akkor az adott szörny ismerete bővül, ennek 3 szintje van. A jegyzeteid között ilyenkor meg tudod nézni az adott szörny adatait: általános viselkedése és taktikája, gyenge pontjai, illetve hogy mely elemekre érzékeny és immunis.

Ha kellően magas a szörnyismereted, akkor a térképre belépve az első nyom megtalálása után jelzi a játék a legrövidebb útvonalat a szörnyhöz. Odaérsz, és kezdődik a móka. Kifejezetten változatos, és sokszor nagyon nehéz ellenfelek vannak – nem annyira bonyolultak, mint egy Dark Souls boss, de azért nagyon nem áll messze. Remek képességekkel és animációkkal rendelkeznek, komolyan, élmény minden harc. Fontos szerepe van, hogy kiismerd a jeleket a nagyobb támadásai előtt, főleg, ha lassabb fegyverrel játszol. Nem árt a környezetre is figyelni, vannak használható elemek: magasról ugorva a szörny hátán találhatod magad, vagy éppen gyorsan kilőve egy békát elkábul az ellen – sok-sok ilyen van. Plusz – az előbb említetteknek megfelelően – vannak a szörnyeknek gyenge pontjai: van, amelyiknek a feje, másiknak a szárnya, lába, hasa... Sőt, némelyiket (farok, szárny) le is lehet metszeni, ezzel pl. a wyverneknél az egyik legkellemetlenebb mérgező támadását ki lehet zárni a küzdelemből. Gyakran bizonyos mennyiségű bevitt sebzés után megfutamodnak a szörnyek, és elmennek pihengetni – ilyenkor, ha nem követed elég gyorsan, biza lassan visszaregenerálja magát. Ja, és a legtöbb küldetésnek 50 perces időlimitje is van...

rwurl=https://www.youtube.com/watch?v=lmwxyM3sPwcAmi viszont óriási fun (elsőre): turf war! Nincs annál királyabb látvány, amikor épp egy lapítós gyíkot ölsz, és egyszerre csak beront egy hatalmas dínó, felkapja, megrázza és odébb hajítja – aztán persze futás, mert te leszel a következő célpont! Ugyanis az a helyzet, hogy a szörnyek nem statikusak, hanem mászkálnak a térképen. És simán előfordul, hogy amíg az egyik főellenelet gyepálod, megjelenik a pálya másik főellenfele, és a két szörny egymásnak esik (persze túl egyszerű lenne, ha kivárnád, így random téged is megtámadnak, sőt olyan is, hogy ketten egyszerre, ami nem egy vidám történés). Egészen elképesztő, az összes ilyen párosításnak saját animációi vannak, hihetetlen látvány tud lenni egy-egy küzdelem.

Igazából ennyi maga a játék. Questet elfogadod, felkészülsz, vadászol, legyőzöd, begyűjtöd a jutalmat, fejlesztesz, és mehet újra az unalomig ismert körforgás. Viszont valahogy sikerült olyan elegyet gyúrniuk, hogy egyáltalán nem lesz unalmas, még nekem sem, pedig én aztán nagyon nem bírom az ilyen farmolós játékokat. 79 óra, és még csak 5 fegyverrel játszottam a sokból, jelenlegi 32 főellenfélből eddig 13-ra vadásztam, és ez a 13 is csak az alap, gyengébb verzió volt. Sok-sok órányi játékot látok még ebben.

Részemről 5/7!

Az eredeti komment hivatkozása: http://www.rewired.hu/comment/157194#comment-157194
2018.02.11 - 18:27,v Hírek Solo: A Star Wars Story teaser

Holnap érkezik a Han Solo-előzményfilm teljes előzetese, addig pedig megcsodálhatunk egy rövidebb ízelítőt.

rwurl=https://www.youtube.com/watch?v=9Szts88zY4o
UPDATE:
Befutott a hosszabb trailer is, jöhetnek a további elmélkedések.

rwurl=https://youtu.be/dNW0B0HsvVs

REWiRED - Kutyus felfedő szétszéledés - 2014-2057 © Minden Jog Fenntartva!
Virtuális valóság és Kecskeklónozó központ - Oculus MegaRift - PS21 - Mozi - 4D - Bajuszpödrés
Médiaajánlat/Borsós Brassói Árak
Rohadt Impresszum!