
Thief : le point résolutions & frame-rate
C'est par la biais d'IGN que le point technique sur Thief vient de tomber. Aucune information précise concernant la old-gen mais coté nouvelle génération, c'est de nouveau la PlayStation 4 qui l'emportera avec 1080p natif contre un 900p sur Xbox One. Notons que l'une comme l'autre n'iront pas au-delà du 30FPS.
posted the 02/17/2014 at 04:22 PM by
Gamekyo
>> Le jeu n'a pourtant rien d'impressionnant et tourne sous l'Unreal Engine 3.
Sinon le jeu est joli, mais c'est pas non plus ce titre qui va mettre a terre les PC ou consoles .
Only for les PC de brutes, soit une minorité de joueurs...
Comme Tomb Raider?
J'attends de voir.
C'est quand que la Xbox One finit sa phase de bêta test ?
&
THIEF PS4 le même jour...
T'as de quoi pour avoir des doutes
tu prend un pc tu vois déjà que windows pompe pas mal de ressource alors imagine dans la one? windows peu mettre en avant sont ouverture multimédia autant qu'il veux c'est cette ouverture qui feras que tous les jeux seront supériorité version sur ps4. la one peu étre une bonne console mais a vouloir faire plein de chose on perd l'essentiel
hate de jouer a ce titre !
liquidsnake66 oui sans les pouvoir mais thief existte depuis bien plus longtemps et tu joue un voleur
BEAUCOUP MOINS BIEN QUE LA CONCURRENCE....! Ce qu'il faut pas lire franchement !
A force de lire tout le temps ici et ailleurs (sur le net quoi) que la One est beaucoup moins performante que la PS4, j'avais fini par y croire, tellement vous faites du bourrage de crâne tous les jours pour dire ça.
Et il y a deux semaines, heureusement, j'ai pu jouer sur la One et la PS4 à TOMB RAIDER Definitive Edition.
En écoutant encore tous les dire des Sonyais, le fait que le jeu sur One ne soit pas en 50/60 FPS comme sur PS4, mais en 30 FPS, était une catastrophe, que dis-je, un GOUFFRE !!
Mais quelle connerie de votre part tout de même (je ne te vise pas spécialement là, c'est général) !!
Maintenant que j'y ai joué, j'ai pu voir que la One était loin, BIEN LOIN d'être moins puissante !
C'était aussi beau que la version PS4, et à 30 FPS, ça restait bien fluide, franchement.
Alors oui, la PS4 est plus puissante, c'est un fait, mais arrêtez d'être malhonnête au point de vouloir faire croire que la One est "beaucoup moins capable ou puissante" que la PS4, C'EST FAUX !
Et ne la comparez pas à la Wii U, vous me faites trop rire là. La console de Nintendo a vraiment un train de retard, ça oui, mais la One est de la même génération que la PS4, sauf que sa puissance de feu un peu moindre l'empêchera, à qualité visuelle équivalente, de faire tourner un jeu multi dans la même résolution ou le même framerate.
Mais c'est vraiment tout comme différence.
Donc rien d'insoutenable ou dévalorisant !
C'est juste. Les gars avait payé entre 500 à 600€ pour avoir la PS3, et tous les multi était dans des versions inférieures sur PS3 comparé à la X360...
C'est pas faux, et Sony a donc tout mis en œuvre pour que ça n'arrive plus. On ne peut que saluer cette clairvoyance de Sony.
Et pour les possesseurs de Xbox One, ben il suffit de patienter, ce ne sont que les débuts de la One, qui sont loin d'être mauvais (au contraire) mais avec des drivers pas prêts pour la sortie de la console.
En fin d'année, on va déjà voir du mieux.
En fait, ces deux consoles sont, pour moi, absolument SUPERBES. J'ai confiance, tant en Sony que Microsoft pour les hardwares qu'ils nous ont proposé.
Du coup, la One a été lancé avec des drivers de développement non finalisés, et des développeurs qui ne peuvent pas encore aujourd'hui bien utiliser la One comme il faut.
C'est en train de se corriger tout ça, et en fin d'année, voir même à la rentrée de septembre, la One va se mettre mieux au niveau de la PS4, même si les GPU font que la PS4 sera toujours meilleures bien sûr.
Enfin, un news laissait entendre que Microsoft a fait les frais de la nouvelle mémoire qu'il voulait mettre dans sa One et dont l'arrivée sur le marché a été retardé :
La DDR4.
Ils n'ont pas pu la mettre dans la One, et ce pour ne pas laisser Sony lancer seul sa PS4. Du coup, ils ont du se rabattre sur la DDR3, moins rapide.
Il me semble que ceci explique aussi certains choix pouvant paraître bizarre.