
Tomb Raider : les cheveux signés AMD
Si vous êtes possesseurs d'une carte AMD de type HD 7000, vous pourrez dès la sortie de
Tomb Raider vous refaire n'importe quel pub sur un shampoing grâce à une compatibilité TressFX Hair, mettant de coté les textures de cheveux pour de véritables filaments indépendants les uns des autres qui réagiront en fonction de la gravité et autres. La classe.
Who likes this ?
loudiyi,
xrkmx,
rosewood,
cosmo777,
trungz,
guyllan,
akinen,
kikibearentongues,
yukilin,
mickurt,
valien,
johnlaff
posted the 02/26/2013 at 03:19 PM by
Gamekyo
c'est Giusnake qui va être content
En fait ça fait des années qu'il y a des démos techniques de ce genre et que c'est parfaitement exploitable au sein d'un jeu, et pas juste dans une démo.
C'est aussi valable pour la gestion de l'herbe, ou chaque brin est indépendant (comme dans Flower, mais avec un rendu encore plus poussé). Là aussi c'est faisable depuis longtemps en plein jeu.
Hors personne n'a jamais utilisé ces technologies dans le monde du PC, alors qu'elle sont là, disponible et optimisées depuis des années.
Même les plus gros étalons graphiques du PC sont actuellement très loin de ce que les PC actuels peuvent rendre, je trouve ça dommage. Il y a encore 6-7 ans, les gros jeux PC exploitaient vraiment leur support. Maintenant ce n'est plus le cas.
Les The Witcher 2 et autres Crysis 3 épatent tout le monde, mais ils sont pourtant honteux par rapport aux capacités des PC de pointe.
Personne ne se lance dans l'utilisation des "nouvelles" technologies. Des technologies pas si nouvelles que ça, disponible depuis 4-5 ans.
En fait depuis quelques années, les concepteurs de cartes graphiques avancent seuls, sans que les développeurs ne suivent, et ce même au niveau des exclusivités PC. Tout n'est donc pas du au consoles, même si elles tirent effectivement le PC vers le bas en matière de rendu graphique.
À croire que même les exclues PC attendent que les développeurs consoles (dans le cas présent, la prochaine génération) démocratisent tout les nouveaux effets à leur place... C'est la honte.
Avant c'était les nouvelles consoles qui imitaient les avancées des PC. Maintenant les développeurs PC stagnent pendant des années en attendant que les nouvelles consoles exploitent à leur place des technologies déjà au point depuis des lustres...
Et je dis tout ça en tant que pur joueur console. Ça me fait chier parce qu'avant l'avance énorme des PC tirait chaque nouvelle génération de console vers le haut.
Maintenant les "prouesses techniques" des PC se content globalement de rester sur ce que les consoles font déjà, mais en mieux, au lieu d'offrir de nouvelles technologies.
Du coup ça tire les nouvelles générations de consoles vers le bas, et en tant que joueur console, ça me fout les glandes...
Que les développeurs PC se sortent un peu les doigts du cul, franchement.
Quoi qu'il en soit, moi qui bavait devant toutes les démos techniques de cheveux et d'herbes indépendants et en temps réel, je suis ravis que ça déboule enfin.
Tomb Raider, le Luminous Engine de Square-Enix, et j'en passe. Ça va se démocratiser autant sur consoles next-gen que sur PC, j'ai hâte !
Pareil pour la gestion des fluides dynamique et volumétrique d'ailleurs ! C'est dispo depuis des années sur PC, et aucun jeu ne l'a réellement utilisé. Et là aussi ça va se démocratiser grâce aux consoles.
C'est le monde à l'envers.
MàJ : J'apprend en plus que AMD a mis sa technologie au point en partenariat avec Square-Enix (Luminous Engine, toussa toussa), ceci explique le fait que ça ne concerne que Tomb Raider pour le moment.
J'espère que tout les autres vont démocratiser ça vite fait eux aussi. Nvidia fait la même chose depuis des lustres.
D'ailleurs sur certains test on peux lire que la queue de cheval de Lara a tendance à partir en cacahuète, ça viendrais de cette technologie?
et puis la tesselation a été créer depuis les 8800gtx et pourtant je suis sur quelle n'ont jamais été utilisé pour, même si je suis d'accord qu'avec les gpu d'aujourd'hui c'est encore plus performant.
Je suis comme toi je ne suis pas un pro AMD (pour ne pas dire pas fan ) d'ailleurs j'ai un peu les boules que ce soit eux qui fabriquent la PS4, je préfère le matos Nvidia, ils sont à l'origine des plus grosses avancés en matière de GPU, leurs pilotes sont vraiment au poil (jusque sur Linux ).
Mais pour autant, AMD (enfin moi je les appels toujours ATI dans le coeur ) m'ont quand même surpris à partir de la 4870*2, et depuis je trouvent qu'ils se donnes les moyens, et ça commence à payer pour eux, et pour le coup, je trouve un peu débile que Nvidia n'ait pas sur faire le même travail auprès des constructeurs de console de jeux vidéo.
En gros Nvidia restent pour moi les plus avancés technologiquement (même si ça se vaut en réalité ) mais AMD sont plus "prêt" plus diversifié, et prêt à répondre aux demandes.
Pourquoi les développeurs ne se cassent plus la tête à utiliser les dernières features ? Pour plusieurs raisons à mon avis :
- Le fait que l'API de rendu elle n'intègre pas ces technologies, je veux bien entendu parler de Direct3D (et non DirectX en général). Il y a encore quelques années (une bonne décennie quand même selon moi), OpenGL et son système d'extensions était encore un concurrent dont il fallait se méfier. Les versions majeures de DirectX se démenaient pour exploiter tout ce qui était possible sur tous les matériels, et les développeurs y avaient accès à toutes ces nouvelles technologies "bleeding edge".
Depuis, Direct3D via DirectX en général est devenu l'API prioritaire pour le développement des jeux sur PC, pour ne pas dire sous Windows. Et depuis, on assiste à ce phénomène aberrant où si ton matos n'est pas "compatible" DirectX version truc, qu'il puisse ou non exploiter une nouvelle technologie ne compte pas, il faut obligatoirement en racheter un "compatible" à la bonne version de DirectX.
L'exemple le plus flagrant dernièrement étant celui de la tesselation, exploitable en tant qu'extension OpenGL au moins 4 ans avant d'être disponible (avec des améliorations heureusement) avec les nouvelles cartes graphiques compatible à *LA* bonne version DirectX.
Et puis tout le monde en profite de ce cercle vicieux, où on fait croire aux gens que leur GPU qui fonctionne encore parfaitement bien est déjà dépassé parce qu'il y a cette nouvelle technologie du tonnerre qu'exploite le dernier jeu:
- Les studios qui font mousser les fabricants de cartes graphiques et ramassent leur pactole (en espèce ou en bénéfices plus abstraits).
- Les fabricants de matos via ce système obsolescence programmée.
- Windows tout simplement parce que les jeux ont été conçu pour.
Alors certes il ne faut pas tomber dans la paranoïa, il y a vraiment des technologies qui nécessitent un très bon matériel, mais il faut bien avouer qu'une grande part du problème se situe au niveau logiciel.
Et puis il y a les studios qui font le calcul. L'utilisation des toutes dernières technologies a un contre-effet : limiter le potentiel de vente du titre, un peu comme les Crysis dont on a l'impression que leur objectif est de tourner sur le moins de configurations possibles, sans compter les spécifications minimales trompeuses, bien en deçà de ce qu'il faudrait pour avoir une expérience de jeu décente. Les ventes potentielles de certains studios combinées aux autres retombées citées plus haut ne recouvrent tout simplement pas les coûts nécessaires à l'implémentation de ces technologies.
C'est le cas de la majorité des studios, qui ne veulent pas implémenter un truc qui ne servira qu'à 10 % des acheteurs potentiels et qui ne rapportera pas assez en droits d'exploitation d'image pour la nouvelle "GeF*** 10^5" ou la toute dernière "HD?xyz", compatible "DirectX 20".
- Deuxième raison : Puisque DirectX et son système pas franchement efficace de versions est si limitatif et privateur, pourquoi ne pas se tourner vers OpenGL ? Parce que ça peut vite devenir un cauchemar à utiliser, voilà pourquoi. OpenGL part d'une très bonne intention qui n'est malheureusement pas allé au bout des choses. En effet, les implémentations d'OpenGL sont pour la plupart propriétaires et varient d'un fabricant à l'autre, voire d'une série à une autre pour le même fabricant et parfois d'un driver à un autre, toujours pour un seul et même fabricant. Ainsi, les fonctions n'ont parfois pas le même nom ou elles ont le même nom mais ne font pas la même chose au niveau des instructions machine.
Et même quand on veut se donner la peine de bien faire, la documentation et les outils de développement (debugger, etc.) -c'est le comble pour un projet "Open"- ne font tout simplement pas le poids face aux ressources qu'ont à leur disposition ceux qui choisissent Direct3D.
Autre "léger" avantage, DirectX est un tout qui gère via Direct3D,DirectSound et DirectXInput, l'image, le son, et l'input (clavier, souris, etc.) alors qu'OpenGL ne sert jamais que pour le rendu.
Alors dans l'absolu, un bon moteur graphique bien conçu dans son design doit être capable de gérer aussi bien l'une des deux API de rendu sans différence flagrante de performance. Mais comme toujours $$$...
Voilà en résumé mon avis sur cette épineuse et bien complexe question.