search engine
  • Tomb Raider : les cheveux signés AMD
  • Tomb Raider : les cheveux signés AMD
  • Tomb Raider : les cheveux signés AMD
  • Tomb Raider : les cheveux signés AMD
  • Tomb Raider : les cheveux signés AMD
12
Likes
Who likes this ?
loudiyi, xrkmx, rosewood, cosmo777, trungz, guyllan, akinen, kikibearentongues, yukilin, mickurt, valien, johnlaff
posted the 02/26/2013 at 03:19 PM by Gamekyo
comments (25)
rosewood posted the 02/26/2013 at 03:24 PM
C'est joli.
raeglin posted the 02/26/2013 at 03:25 PM
Une news sur les cheveux...

c'est Giusnake qui va être content
loudiyi posted the 02/26/2013 at 03:25 PM
Aussi bizarre que ça puisse paraître, pour moi ça c'est quelque chose d'intéressant Des années que j'attends de voir ça de manière bien faite (oui je déteste l'effet "gel" sur le cheveux dans les JV...)
docteurdeggman posted the 02/26/2013 at 03:30 PM
C'est Nomura qui va être jaloux...
chucksly posted the 02/26/2013 at 03:32 PM
Loudiyi +1 ces la même chose pour moi
cosmo777 posted the 02/26/2013 at 03:33 PM
La queue de cheval de Lara, c'est sacré
goldmen33 posted the 02/26/2013 at 03:35 PM
J'ai pas de cheveux !! mais je m'en fou
mokykun posted the 02/26/2013 at 03:39 PM
Dieu comme la version standard parait moche quand on a un comparatif o.o"
sadakoyamamura posted the 02/26/2013 at 03:46 PM
Ça fait longtemps que je suis les technologies permettant de gérer chaque cheveux en temps réel dans les jeux vidéos.
En fait ça fait des années qu'il y a des démos techniques de ce genre et que c'est parfaitement exploitable au sein d'un jeu, et pas juste dans une démo.

C'est aussi valable pour la gestion de l'herbe, ou chaque brin est indépendant (comme dans Flower, mais avec un rendu encore plus poussé). Là aussi c'est faisable depuis longtemps en plein jeu.

Hors personne n'a jamais utilisé ces technologies dans le monde du PC, alors qu'elle sont là, disponible et optimisées depuis des années.
Même les plus gros étalons graphiques du PC sont actuellement très loin de ce que les PC actuels peuvent rendre, je trouve ça dommage. Il y a encore 6-7 ans, les gros jeux PC exploitaient vraiment leur support. Maintenant ce n'est plus le cas.
Les The Witcher 2 et autres Crysis 3 épatent tout le monde, mais ils sont pourtant honteux par rapport aux capacités des PC de pointe.

Personne ne se lance dans l'utilisation des "nouvelles" technologies. Des technologies pas si nouvelles que ça, disponible depuis 4-5 ans.
En fait depuis quelques années, les concepteurs de cartes graphiques avancent seuls, sans que les développeurs ne suivent, et ce même au niveau des exclusivités PC. Tout n'est donc pas du au consoles, même si elles tirent effectivement le PC vers le bas en matière de rendu graphique.


À croire que même les exclues PC attendent que les développeurs consoles (dans le cas présent, la prochaine génération) démocratisent tout les nouveaux effets à leur place... C'est la honte.

Avant c'était les nouvelles consoles qui imitaient les avancées des PC. Maintenant les développeurs PC stagnent pendant des années en attendant que les nouvelles consoles exploitent à leur place des technologies déjà au point depuis des lustres...



Et je dis tout ça en tant que pur joueur console. Ça me fait chier parce qu'avant l'avance énorme des PC tirait chaque nouvelle génération de console vers le haut.
Maintenant les "prouesses techniques" des PC se content globalement de rester sur ce que les consoles font déjà, mais en mieux, au lieu d'offrir de nouvelles technologies.

Du coup ça tire les nouvelles générations de consoles vers le bas, et en tant que joueur console, ça me fout les glandes...
Que les développeurs PC se sortent un peu les doigts du cul, franchement.




Quoi qu'il en soit, moi qui bavait devant toutes les démos techniques de cheveux et d'herbes indépendants et en temps réel, je suis ravis que ça déboule enfin.
Tomb Raider, le Luminous Engine de Square-Enix, et j'en passe. Ça va se démocratiser autant sur consoles next-gen que sur PC, j'ai hâte !
Pareil pour la gestion des fluides dynamique et volumétrique d'ailleurs ! C'est dispo depuis des années sur PC, et aucun jeu ne l'a réellement utilisé. Et là aussi ça va se démocratiser grâce aux consoles.

C'est le monde à l'envers.





MàJ : J'apprend en plus que AMD a mis sa technologie au point en partenariat avec Square-Enix (Luminous Engine, toussa toussa), ceci explique le fait que ça ne concerne que Tomb Raider pour le moment.
J'espère que tout les autres vont démocratiser ça vite fait eux aussi. Nvidia fait la même chose depuis des lustres.
magnetic posted the 02/26/2013 at 03:50 PM
Super^^, mon expérience de jeu vas être transcender sans aucun problème avec çà.

D'ailleurs sur certains test on peux lire que la queue de cheval de Lara a tendance à partir en cacahuète, ça viendrais de cette technologie?
sadakoyamamura posted the 02/26/2013 at 03:51 PM
Non, puisqu'elle n'est toujours pas disponible.
etchi posted the 02/26/2013 at 04:47 PM
Choper un GPU AMD pour si peu...bof bof, sa vaut pas PhysX d'Ageia que NVIDIA a racheté. Je comprendrai jamais pk Eidos opte pour des architecture AMD. C'était déjà le cas pour Deus Ex HR et au final le rendu multiscreen est exactement le même sous SLI ou AMD Vision. Cherchez pas, j'aime pas AMD donc je suis pas forcément très objectif, mais il y a des choses qui ne se discute pas -> Driver Catalyst de merde buggué, GPU au fonctionnalité limité, CPU a la ramasse et instable. Par contre les benchmark, eux, sont p-e plus objectif :P T'facpn c'est pas pour rien si les station graphique pour pro sont vendu avec des GPU Quadro et non AMD ^^'
qbigaara49 posted the 02/26/2013 at 05:12 PM
sadakoyamamura entièrement d'accord avec toi, quand on vois ce que peu apporter la tesselation et quand on vois comment elle est utilisé sur pc, alors que l'ont peu faire beaucoup mieux, je trouve ça dommage.
et puis la tesselation a été créer depuis les 8800gtx et pourtant je suis sur quelle n'ont jamais été utilisé pour, même si je suis d'accord qu'avec les gpu d'aujourd'hui c'est encore plus performant.
gaeon posted the 02/26/2013 at 05:39 PM
Cool! S'il y avait bien un truc a améliorer sur les persos c'est les cheveux.
karbon posted the 02/26/2013 at 05:47 PM
Choper un GPU AMD pour si peu...bof bof, sa vaut pas PhysX d'Ageia que NVIDIA a racheté. Je comprendrai jamais pk Eidos opte pour des architecture AMD. C'était déjà le cas pour Deus Ex HR et au final le rendu multiscreen est exactement le même sous SLI ou AMD Vision. Cherchez pas, j'aime pas AMD donc je suis pas forcément très objectif, mais il y a des choses qui ne se discute pas -> Driver Catalyst de merde buggué, GPU au fonctionnalité limité, CPU a la ramasse et instable. Par contre les benchmark, eux, sont p-e plus objectif :P T'facpn c'est pas pour rien si les station graphique pour pro sont vendu avec des GPU Quadro et non AMD ^^'

Je suis comme toi je ne suis pas un pro AMD (pour ne pas dire pas fan ) d'ailleurs j'ai un peu les boules que ce soit eux qui fabriquent la PS4, je préfère le matos Nvidia, ils sont à l'origine des plus grosses avancés en matière de GPU, leurs pilotes sont vraiment au poil (jusque sur Linux ).

Mais pour autant, AMD (enfin moi je les appels toujours ATI dans le coeur ) m'ont quand même surpris à partir de la 4870*2, et depuis je trouvent qu'ils se donnes les moyens, et ça commence à payer pour eux, et pour le coup, je trouve un peu débile que Nvidia n'ait pas sur faire le même travail auprès des constructeurs de console de jeux vidéo.

En gros Nvidia restent pour moi les plus avancés technologiquement (même si ça se vaut en réalité ) mais AMD sont plus "prêt" plus diversifié, et prêt à répondre aux demandes.
liquidsnake66 posted the 02/26/2013 at 05:50 PM
vraiment top cette technologie, vu que c'est présent sur les radeon 7000 la ps4 devrait nous l'offrir aussi ^^
etchi posted the 02/26/2013 at 06:00 PM
Karbon > faudrait qu'il révise totalement leur driver catalyst car c'est le premier défaut de leur GPU car la plupart des bug lié a leur GPU viennent de leur driver qui ont tendance a faire de la merde. Et comme tu le dis sous Linux, AMD c'est une galère de première car il fournisse pas de driver open-source mais uniquement des drivers proprietaire se qui est une véritable horreur. Enfin pour ma part si j'aime pas AMD c'est parce que j'ai subis AMD...et pourtant a une époque je n'aurai pour rien au monde échanger mon CPU AMD pour un Intel Pentium 3 ou 4 (ouais sa date ^^')
akinen posted the 02/26/2013 at 06:18 PM
ché beauuww
jeanouillz posted the 02/26/2013 at 06:40 PM
J'aimerais voir ça en vidéo !
sylar133 posted the 02/26/2013 at 07:03 PM
je suis un noob dans le domaine, quelles sont les différences notable entre AMD et Nvidia ?
jeanouillz posted the 02/26/2013 at 08:38 PM
Nvidia c'est ceux qui signent des gros chèques au développeurs pour bloquer des feature pour la concurrence
yukilin posted the 02/26/2013 at 09:29 PM
Joli, mais bon il faut un PC pour ça. J'espère que, si cette technologie est prête, on va pouvoir en bénéficier bientôt. Sur PS4 par exemple.
qbigaara49 posted the 02/26/2013 at 09:53 PM
yukilin les gpu qui utilise cette feature sont les radéon série 7000 comme pour le gpu de la ps4, donc oui sa marchera, surtout qu'il y a l'optimisation console qui peu aider.
valien posted the 02/27/2013 at 11:08 AM
dommage de ne pas y avoir le droit sur la version PS3 ...
darkeox posted the 02/27/2013 at 11:37 AM
sadakoyamamura >> Ton propos est très juste et ce sur plusieurs points, MAIS.
Pourquoi les développeurs ne se cassent plus la tête à utiliser les dernières features ? Pour plusieurs raisons à mon avis :

- Le fait que l'API de rendu elle n'intègre pas ces technologies, je veux bien entendu parler de Direct3D (et non DirectX en général). Il y a encore quelques années (une bonne décennie quand même selon moi), OpenGL et son système d'extensions était encore un concurrent dont il fallait se méfier. Les versions majeures de DirectX se démenaient pour exploiter tout ce qui était possible sur tous les matériels, et les développeurs y avaient accès à toutes ces nouvelles technologies "bleeding edge".
Depuis, Direct3D via DirectX en général est devenu l'API prioritaire pour le développement des jeux sur PC, pour ne pas dire sous Windows. Et depuis, on assiste à ce phénomène aberrant où si ton matos n'est pas "compatible" DirectX version truc, qu'il puisse ou non exploiter une nouvelle technologie ne compte pas, il faut obligatoirement en racheter un "compatible" à la bonne version de DirectX.

L'exemple le plus flagrant dernièrement étant celui de la tesselation, exploitable en tant qu'extension OpenGL au moins 4 ans avant d'être disponible (avec des améliorations heureusement) avec les nouvelles cartes graphiques compatible à *LA* bonne version DirectX.

Et puis tout le monde en profite de ce cercle vicieux, où on fait croire aux gens que leur GPU qui fonctionne encore parfaitement bien est déjà dépassé parce qu'il y a cette nouvelle technologie du tonnerre qu'exploite le dernier jeu:

- Les studios qui font mousser les fabricants de cartes graphiques et ramassent leur pactole (en espèce ou en bénéfices plus abstraits).
- Les fabricants de matos via ce système obsolescence programmée.
- Windows tout simplement parce que les jeux ont été conçu pour.
Alors certes il ne faut pas tomber dans la paranoïa, il y a vraiment des technologies qui nécessitent un très bon matériel, mais il faut bien avouer qu'une grande part du problème se situe au niveau logiciel.

Et puis il y a les studios qui font le calcul. L'utilisation des toutes dernières technologies a un contre-effet : limiter le potentiel de vente du titre, un peu comme les Crysis dont on a l'impression que leur objectif est de tourner sur le moins de configurations possibles, sans compter les spécifications minimales trompeuses, bien en deçà de ce qu'il faudrait pour avoir une expérience de jeu décente. Les ventes potentielles de certains studios combinées aux autres retombées citées plus haut ne recouvrent tout simplement pas les coûts nécessaires à l'implémentation de ces technologies.

C'est le cas de la majorité des studios, qui ne veulent pas implémenter un truc qui ne servira qu'à 10 % des acheteurs potentiels et qui ne rapportera pas assez en droits d'exploitation d'image pour la nouvelle "GeF*** 10^5" ou la toute dernière "HD?xyz", compatible "DirectX 20".

- Deuxième raison : Puisque DirectX et son système pas franchement efficace de versions est si limitatif et privateur, pourquoi ne pas se tourner vers OpenGL ? Parce que ça peut vite devenir un cauchemar à utiliser, voilà pourquoi. OpenGL part d'une très bonne intention qui n'est malheureusement pas allé au bout des choses. En effet, les implémentations d'OpenGL sont pour la plupart propriétaires et varient d'un fabricant à l'autre, voire d'une série à une autre pour le même fabricant et parfois d'un driver à un autre, toujours pour un seul et même fabricant. Ainsi, les fonctions n'ont parfois pas le même nom ou elles ont le même nom mais ne font pas la même chose au niveau des instructions machine.
Et même quand on veut se donner la peine de bien faire, la documentation et les outils de développement (debugger, etc.) -c'est le comble pour un projet "Open"- ne font tout simplement pas le poids face aux ressources qu'ont à leur disposition ceux qui choisissent Direct3D.

Autre "léger" avantage, DirectX est un tout qui gère via Direct3D,DirectSound et DirectXInput, l'image, le son, et l'input (clavier, souris, etc.) alors qu'OpenGL ne sert jamais que pour le rendu.
Alors dans l'absolu, un bon moteur graphique bien conçu dans son design doit être capable de gérer aussi bien l'une des deux API de rendu sans différence flagrante de performance. Mais comme toujours $$$...

Voilà en résumé mon avis sur cette épineuse et bien complexe question.