Il faut savoir que très peu de jeux tournent avec un framerate aussi élevé sur cette génération (PS3/Xbox360).
COD6 : Modern Warfare 2 s'affiche au rythme de 60im/s (en plus d'être stable avec VSync activé), là où tous ses concurrents sont en 30fps (voir moins). Un rapport de deux frames pour une (en temps de calculs), ce n'est pas rien ! Et cela, dans l'unique but d'améliorer l'expérience de jeu (latence, réalisme, dynamisme, etc.).
Quand on voit comment certains développeurs galèrent pour ne serait-ce que maintenir un framerate stable au dessus de 25 fps...
Malheureusement, la plupart des joueurs sont juste incapables de quantifier les apports d'un tel framerate (même si, inconsciemment, le 60fps est en partie responsable du plaisir qu'ils éprouvent), et cela tend à décourager les autres développeurs d'en faire autant (surtout qu'il est bien plus facile d'obtenir un jeu beaucoup plus "beau" en 30fps).
Parmi les derniers gros jeux en 60fps (2xAA), deux d'entre eux sont en sub-HD :
- Ratchet & Clank : A Crack in Time sur PS3 (960x704p = 675 840 pixels)
- COD6 : Modern Warfare 2 sur Xbox360/PS3 (1024x600p = 614 400 pixels)
Sachant qu'un rendu HD (1280x720p) contient 921 600 pixels, on obtient :
- Ratchet & Clank : A Crack in Time sur PS3 ---> 73.3% d'un rendu HD.
- COD6 : Modern Warfare 2 sur Xbox360/PS3 ---> 66,6% d'un rendu HD.
Sur la base d'un rendu HD, ces 2 jeux diffèrent donc de 6,6%.
Pour ce qui est du moteur du jeu (MW2), il faut savoir qu'ils utilisent dorénavant un moteur de streaming efficace (malgré l'absence de HDD de série) qui leur permet d'afficher les textures de proximité avec une bien meilleure résolution que dans COD4 : Modern Warfare. Ce n'est pas tout, puisque grâce aux nouvelles plages de mémoire réservées au streaming, la quantité globale allouée aux textures a sensiblement diminuée (pour un résultat meilleur, avec des niveaux plus grands et se chargeant plus vite). Ce surplus de mémoire leur a permis (entre autres) d'améliorer/optimiser légèrement leur moteur de rendu avec un code encore plus axé "parallèle" (IA, effets/éclairage, physique/collision, etc.).
Bien qu'elle existe, je me demande si certains joueurs perçoivent réellement cette différence de résolution (après upscale, et sur un jeu en 60fps), et ne confondent/mélangent pas plutôt avec la résolution des textures...
Le problème du sub-HD, ce sont nos vilains écrans LCD qui dénaturent la résolution native des jeux (par un upscale plus flou que efficace), lorsque cette dernière diffère de celle de la dalle (vivement la nouvelle génération d'écran !). Malgré tout, je constate (avec mes yeux) que le 60fps apporte bien plus (cf. plus haut) que la différence de résolution enlève. De plus, le 60fps ajoute un brin de netteté à l'image, et nous donne l'illusion d'une résolution plus élevée.
En fait, je reste persuadé que la majorité des joueurs auraient été juste incapable de remarquer la différence de résolution entre COD6 : Modern Warfare 2, Ratchet & Clank : A Crack in Time et un autre jeu en 720p. C'est aussi ça la magie du net !
publié le 11/11/2009 à 17:02 par
kokoriko