Bon c'est toujours un peu compressé mais c'est déjà mieux. C'est vraiment extra d'arriver à faire tourner un truc pareil sur nos consoles aussi tôt dans leur cycle de vie. Et on a encore rien vu. Ce sera intéressant de comparer ces vidéos avec la version finale du jeu.
Vu que le deuxième épisode est apparemment une petite bombe, je me suis dit que j'allais me laisser tenter par le premier et ça tombe bien puisqu'il vient de passer à 20 euros (environ) sur le PSN.
Le talentueux studio indépendant Q-Games vient de mettre en ligne de la documentation technique présentant les principales technologies utilisées dans ce jeu atypique à savoir : une solution 100% temps réel de GI à base de Voxel Cone Tracing (très proche du SVGOI de la démo technique Unreal Engine 4 (que Epic a abandonné car trop gourmand). La solution de Q-Games est même un peu plus évoluée (au niveau des reflets notamment qui ne sont plus limités au screen space), des ray-traced reflections et refractions en temps réel, du subsurface scattering ou encore une méthode d'occlusion ambiante très précise (SSDO).
A noter que Deep Down de Capcom ainsi que la nouvelle démo technique de Silicon Studio utilisent une techno similaire mais dans une version pré-baked contrairement à The Tomorrow Children qui doit lui passer par une solution 100% dynamique pour des raisons de game design.
Le problème c'est que cela demande énormément de ressources à la machine donc pour réussir à implémenter ces technologies très gourmandes et les proposer dans un jeu en 1080p avec un framerate stable et un très bon AA, le développeur s'est beaucoup aidé des unités de calcul asynchrone du GPU (ACEs). Cette approche a permis de gagner des cycles GPU (on passe de 33ms pour le pipeline graphique classique à 27ms via l'async compute ce qui est énorme) sachant que d'après les développeurs, il y a encore une bonne marge de progression possible. On peut d'ailleurs trouver une petite liste des améliorations prévues pour la prochaine version du moteur dans le PDF.
Mais plus intéressant, il semblerait que cette approche du hardware fut influencée par l'architecte en chef de la PS4 : Mark Cerny.
C'est en effet ce qu'a révélé Dylan Cuthbert, le directeur du studio sur le forum neogaf :
"Il y a quelques années au tout début du projet, Mark Cerny est venu nous demander personnellement d'utiliser les ACEs (pour le GPGPU) tandis que les autres développeurs allaient initialement se contenter d'un pipeline GPU plus simple et similaire au PC. Nous avons accepter de relever le défi"
''Mark Cerny voulait que quelqu'un essaie d'exploiter les specificités du hardware qu'il avait mis des années à concevoir"
On apprend par ailleurs que :
- la géométrie du jeu est entièrement déformable. Les environnements sont dynamiques, ils évoluent sans arrêt (ce qui explique aussi le choix d'une solution d'éclairage 100% temps réel et l'absence de shadow maps pré-rendues).
- une beta du jeu est d'ores et déjà prévue en Occident (peut-être pour le mois d'Octobre). Sony devrait l'annoncer bientôt.
- il y aura bien des skyboxes dans le jeu, c'est quelque chose de très facile à intégrer donc ils préfèrent le faire au dernier moment.
- le studio envisage de rajouter des nouvelles features au fur et à mesure (comme des nouvelles conditions climatiques par exemple).
En effet, derrière son côté assez simpliste (quoique personnellement il m'a tapé dans l'oeil tout de suite) se cache en réalité un jeu techniquement très avancé.
Et ce n'est pas étonnant quand on se renseigne un peu sur le passif des membres du studio Q-Games qui ont contribué notamment à la conception du hardware PS3 et qui sont spécialisés dans la programmation sur les SPUs du Cell.
Si on remonte plus loin, certains des membres du studio travaillaient pour le département EAD de Nintendo et ont grandement contribué au développement de la série Starfox aux côtés de Miyamoto.
Revenons à nos moutons.
Les membres de Q-Games sont partis de deux problématiques très simples :
Est-ce qu'une amélioration des textures et de la résolution sont suffisants pour un moteur next-gen ?
Ou pouvons-nous utiliser ce surplus de puissance pour implémenter des nouvelles et intéressantes techniques jamais utilisées auparavant dans un jeu vidéo ?
C'est ainsi qu'ils ont décidé de tester une nouvelle solution de Global Illumination (direct et indirect) en temps réel destinée à la PS4.
Pour cela ils utilisent une technique (déjà connue) appelée Voxel Cone Tracing (vous en avez au moins entendu parlé au moment de la présentation de l'Unreal Engine 4) qui est un dérivé du fameux algorythme Ray-Tracing mais avec des rayons plus limités (si on peut dire ça comme ça).
La version de The Tomorrow Children supporte 2 à 3 bounces (c'est à dire que les rayons sources rebondissent plusieurs fois sur les objets, dans la "vraie vie" il n'y a pas de limite bien entendu) ce qui est déjà pas mal compte tenu des limitations du hardware (sur un PC très puissant, on peut doubler voire tripler ce chiffre).
A noter que cette technique est présentée en détail dans la documentation du PSSL (PlayStation Shader Language) de la GDC Europe 2013 dont voici le lien :
Q-Games n'a donc pas perdu de temps et l'a déjà mise en application dès son premier jeu PS4.
Le jeu gère également :
- les Ray-Traced Reflections en temps réel (reflets à base de Ray-Tracing) sauf que contrairement à des jeux comme Infamous Second Son ou Killzone SF, ils ne sont pas limités au screenspace (ce qui veut dire que son champ d'application ne se limite pas à l'écran).
- le Subsurface Scattering (ou transluminescence) est également de la partie ce qui permet à la lumière de pénétrer dans les objets translucides pour un rendu plus réaliste des matériaux, de la peau etc. soumis à des conditions d'éclairage dynamiques.
- Le SSDO (ou dérivé) permet une gestion de l'occlusion ambiante par pixel donc de haute précision pour les sources de lumière directes et indirectes.
- un système évolué de particules volumétriques
- Un monde dynamique. L'univers est en effet composé de décors placés manuellement par les développeurs pour des raisons artistiques/cohérence visuelle mais également de décors générés de façon procédurale (donc aléatoire).
Toutes ces technologies sont possibles sur console grâce à une optimisation GPGPU donc en exploitant les capacités en compute du GPU (ACE).
Il y a probablement beaucoup d'autres technos présentes dans le jeu mais en voici les principales. On devrait en apprendre plus lors de la prochaine GDC puisque les membres du studio feront une présentation détaillée de leur moteur de leurs techniques de rendu qui j'espère inspireront d'autres studios de taille modeste ou non (ils précisent que leur approche technique est très flexible et peut fonctionner sans problèmes dans des jeux plus "traditionnels" en procédant à quelques modifications).
Cela fait plaisir de voir des jeux japonais à la hauteur techniquement. Comme quoi on peut manquer de moyen pour la création d'assets (qui nécessite un grand nombre d'artistes pour un AAA ou alors il faut sous-traiter) mais cela n'empêche pas de développer un moteur performant.
Je suis curieux de voir ce que nous prépare Media Molecule. Ce sera sans doute encore plus impressionant vu leurs moyens