Salut à tout le monde.
J'ai pu traduire (que c'est long et laborieux) quelques informations sur la démo
Agni's Philosophy.
Pour cette fois-ci, on se concentrera principalement sur la géométrie.
La configuration qui a fait tournée la démo Agni's Philosophy :
GPU : GeForce GTX 680
CPU : Intel Core i 7-3770 - 3. 5 GHz
RAM : 32 Giga Octets
OS : Windows7 64bits.
L'utilisation du CPU reste très limité dans cette démo, le GPU gère seul le gros du travail (physique, particules et leurs trajectoires, rendu).
Quant à la RAM,
4GO* devraient théoriquement suffire pour faire tourner la démo.
*~2.5 Go de mémoire vidéo GDDR 5.
Quelques statistiques :
Les scènes dites "modestes" comportent plus de
5Millions de vertices d'asset brut (hors effets, ombres, instancing, tesselation).
Les scènes complexes comportent environ
10Millions de vertices d'asset brut (hors effets, ombres, instancing, tesselation).
Les données d'asset (textures et géométrie) peuvent atteindre jusqu'à 1.8 GO, avec 1300 textures différentes.
La démo devant rendre un nombre
astronomique de vertex et de très nombreux matériaux, l'optimisation du processus de rendu a été une étape essentielle, plus particulièrement en ce qui concerne les appels de rendu (drawcalls).
Exemple d'une scène:
[Géométrie]
Total : 5.100.000 vertices = 150MO
Arrière-plan : 3.500.000 vertices
Agni : 450.000 vertices (sans les fibres)
Sidoro : 340.000 vertices (sans les fibres)
Autre invocateur : 160.000 vertices
Autre invocateur (2) : 160.000 vertices
[Textures]
Total : 1.4GO (pour 1000 exemplaires)
Arrière-plan : 220MO
Agni : 340MO
Sidoro : 125MO
Autres invocateurs : 190MO
Illumination Globale : 420MO
A été abordé le sujet de l'optimisation du processus de rendu.
Agni's Philosophy est une démonstration qui utilise des scènes qui contiennent un grand nombre de modèles affichés, eux même composés de beaucoup de matériaux, cela à demander une minutieuse prise en charge de l'optimisation.
Par exemple, lors de la première scène, il est apparu qu'une frame a demander pas moins de 3375 drawcalls pour être rendue, le GPU se voyait gâchées des performances dans des calculs redondants.
L'utilisation du GPU s'est vu modifiée du côté des shaders, avec une technique de matériaux "universels", permettant de peindre les matériaux de même nature en un seul coup de pinceau sur de vastes périmètres.
Ce procédé ingénieux a permis une baisse affolante d'appels de rendu sur les grandes structures de mesh (85%).
Cette frame qui demandait 3375 drawcalls pour être rendu, après optimisation, n'en demandait plus que 452 !!
Avant - Après
Mr. Hiroshi Iwasaki s'est ensuite amusé à dévoiler un détail surprenant.
Saviez-vous que lors de la première scène de la démo, l'intérieur d'un temple est modélisé dans la montagne ? Bien que caché.
Ce temple contient entre autres une porte d'une complexité géométrique déconcertante (les données étant les même que celles du target render de Visual Works). Quatre cordes sont accrochées aux poignets, chacune des cordes est composée de pas moins de 90.000 vertices et tiennent sur moins d'un pixel à l'écran !*
*Les performances ne sont pas impactées grâce à l'utilisation d'une méthode d'Occlusion Culling (Z-Culling), éliminant la géométrie obstruée par d'autres éléments.
Nombre de vertex
Temple caché dans la montagne
Porte du temple caché
Zoom
http://game.watch.impress.co.jp/docs/news/20121129_575412.html Lien source.
Encore merci et vivement la suite.
et la prochaine gen des graphismes pareils normalement,ce serait excellent,mais j'en doute...
Je suis bien content d'avoir une bête de pc du coup
Tu sais combien coute une gtx680 digne de ce nom?
Alors à moins d'avoir une ps4 vendue 800€ il me semble impossible que celle ci embarque une CG de cette puissance.
En tout cas merci pour la trad, je pensais bien que ça tourné sur une bête de course, c'est la même carte graphique qui faisait tourner l'Unreal Engine 4, d'ailleurs la CG qui fait tourner la démo c'est une 2Go ou une 4Go ?
Si Square Enix devait sortir un jeu de cette qualité à mon avis ça ne sera pas avant 3/4 ans au moins...
Naughty Dog
Square qui fait quasiment de la CG en temps réel. Je rêvais de ça il y a plus de 10 ans quand je jouais aux FF psone. J'espère que le jour où ils seront capables de produire un Final Fantasy de cette qualité (il faudra quelques années encore), ils ne négligeront pas tout le reste.
Pareil
Bien qu'honnêtement entre une CG précalculée de FF7 et cette démo en temps réel il y a un monde tant Agni's fleurte plutot avec la qualité et la technique des derniers films d'animation comme tintin.
+1
Même si les premiers jeux ne seront pas hallucinants on aura certains effets que gère ce moteur notamment au niveau de tout ce qui est gestion des particules, modélisation des visages, cheveux et destructions de décors...
D'un côté il va y avoir la WiiU avec de superbes exclusivités Nintendo en HD ^^ et de l'autre une démonstration de puissance encore jamais vu, j'y voit gros comme une maison, ça va nous arracher les yeux !! VIVEMENT !! Vive les consoles !!
http://www.youtube.com/watch?v=-p2URU1_gKQ&feature=watch_response
Franchement pas aussi enthousiaste que toi.
Et j'aime beaucoup les boites de mes jeux en collection posé sur une etagere ca a vachement plus de gueule.
Mais quand je vois les prix proposé par steam je me dis que j'en ai plus rien à foutre de plus avoir de jeux d'occasion... Et surtout que je ne revends jamais mes jeux donc ca m'arrange!
Et quel bonheur de pouvoir d'un simple clik installer un jeux sans avoir un mettre le cd+clé+changer de cd à chaque jeux...
Le seul truc qui fait peur c'est le jour ou steam fait faillite on perd tous nos jeux...
Heisenberg>on aura certains effets que gère ce moteur notamment au niveau de tout ce qui est gestion des particules, modélisation des visages, cheveux et destructions de décors... En fait gestion des particules et cheveux c'est plus ou moins la même chose. Les cheveux sont calculés à partir d'un système de particules. Pour la mod des visages c'est plutôt un boulot d'infographiste. Non ce qui est intéressant à ce niveau c'est plutôt la gestion du SSS en temps réel.
Kayama>Moi j'ai surtout hâte de voir les nouveaux modèles d'éclairage qu'ils vont proposer. Square Enix a dit qu'ils ne voulaient pas que toute les ressources soient pompées par le lighting. En gros il n'y aura pas vraiment d'interaction avec l’éclairage au niveau de la GI, tout sera baké. C'est pas nouveau, les moteurs actuels gèrent ça depuis un moment.
Pour l'illumination globale, ils ont présenter plusieurs solutions en temps-réel, comme du path-tracing en bidirectionnel (le tracé de rayon depuis la caméra et les sources de lumière), l'intéractivité est là tout comme la qualité mais c'est gourmand (surtout si l'on veut simuler de nombreux rebonds de lumière). Mais cette solution par exemple n'est utile que pour les scènes entièrement dynamiques (les immeubles se voient arrachés un mur en temps-réel, par exemple).
L'utiliser Pour Agni's Philosophy serait une perte très importante de ressource pour quelque chose qui est très dispensable compte tenu du baking et de la nature assez "statique" de la démo. Mais j'en ferait un article sur la lumière, très bientôt, car il y a du nouveau dans le baking (Irradiance Volume, entre autres).
"Impressionnant ! Mais on s'éloigne pas de la prochaine là ??? Car tout ça juste pour une démo ! Alors un jeu impossible non ?"
Pour un jeu, ça risque, et je dirais même ça va être différent.
Déjà, comme l'a mentionné Gabich (également Square), les jeux pourront faire usage de LOD.
C'est peu probable que le joueur soit ammené à controler des modèles de personnages d'un demi million de polygones, avec autant de détail sur les cheveux, et une avalanche de muscle pour le visage (plus de 300 pour Sidoro, Agni et le vieillard, dans cette démo. Presque autant que dans les films d'animation), etc.
Là, comme la démo est de nature "cutscene" et que l'un des objectifs était de rendre une " qualité pré-rendu en temps-réel", le niveau de détail peut atteindre des sommets. Alors que dans un jeu, la caméra ne sera pas collée à 2cm des yeux du personnage.
Idem pour les décors en fonds, qui utiliseront probablement un système de niveau de détail en fonction de la distance de l'objet par rapport à la caméra.
Pour cette démo, il n'y a pas de LOD, parceque le GPU arrive à gérer (avec de l'optimisation sur d'autres aspects) un nombre monstrueux de vertices. Mais dans un jeu, c'est inutile de modéliser chaque caillou, ou maison qui se trouvent 3 km plus loin, c'est des ressources qui peuvent être utilisées ailleurs.
Tripy73
4GO, certainement.