Récemment les développeurs de Miles Morales, ont affirmé que ce dernier utilisait le machine learning, géré directement par le GPU de la ps5, pour la déformation en temps réel des muscles du personnages.
C est une énorme avancée pour nos consoles de pouvoir gérer ce type d'algorithme, et cela présage du tout bon pour l'avenir.
Les développeurs ont même confirmé que c était que le début de ce qu'il pouvait accomplir sur ps5.
Plus de détails venant de leur site sur la techno utilisée:
About ZivaRT: ZivaRT (Ziva Real Time) is a machine learning based technology that allows a user to get nearly film-quality shape deformation results in real time. In particular, the software takes in a set of representative high-quality mesh shapes and poses, and trains a machine-learning model to learn how to deform and skin the mesh. ZivaRT allows for near film quality characters to be deployed in applications in real time.

C'est un système très utilisé dans le cinéma d'animation et dans les films avec personnages de synthèse. La version utilisé dans les jeux vidéo est programmée très différemment pour faire de la simulation en temps réel mais le résultat est déjà là. Subtil mais c'est les détails qui rendent quelque chose crédible.
Comme d'habitude. Entre les premiers jeux One/PS4 et l'apothéose de fin de gen TLOU2 il y a un monde. Ça va de nouveau poutrer sévère dans 7 ans. Rien qu'à voir la démo d'UE4 qui impressionnait à l'époque et par la suite les devs sont allés bien au delà de ça, on peut déjà faire le parallèle avec la démo UE5 qui sera plus que banale dans 2-3 ans.
Ceci dit c'est pas forcément ce genre de détail que j'attends pour une nouvelle next-gen (cb ça consomme ça en ressource? On peut pas utiliser ces ressources d'une meilleure façon?). On arrive déjà à faire très beau, on pourrait faire plus ludique. Je me dis parfois que la next-gen se trouve derrière nous, les décors très interactifs, destructibles des précédentes gens, si on les pousser encore plus loin aujourd'hui mais avec le niveau visuel qu'on connait? Rendre les mondes encore plus dynamiques, organiques, déformables etc... Et aussi toujours cette IA qui stagne...
https://news.xbox.com/en-us/2020/10/28/a-closer-look-at-how-xbox-series-xs-integrates-full-amd-rdna-2-architecture/
"we have gone even further introducing additional next-generation innovation such as hardware accelerated Machine Learning capabilities for better NPC intelligence, more lifelike animation, and improved visual quality via techniques such as ML powered super resolution."
pour sony faut voir du coté du Chronos Group où ils en sont car c'est prévu mais ils ont eu les specs des soc "full rdna2" plus tard du coup.
"improved visual quality"
Pour l'instant Xbox ne sont pas connus pour être les plus compétents en la matière... Sinon avec le covid, tout ça tout ça, ça s'est bien passé pour ton KAPES?
kratoszeus Yes, maintenant quand est-ce qu'on en verra le fruit sur Series/PS5? Ça me semble bien loin, malheureusement. Je trouve ça très dommage, surtout quand on voit en quoi consiste et ce que permet concrètement le DLSS. J'ai l'impression que les devs perdent pas mal de temps et de ressources sans cette techno. Peut être que s'ils développaient tous en 1080p avec à côté du "DLSS", les jeux sortiraient plus rapidement, aurait de meilleurs visuels ou en tout cas au minimum les mêmes visuels mais avec du bonus à côté, des ressources étant dégagées grâce à la technique...
Je viens de voir la vidéo de guyllan et perso je décèle aucune différence
Un com sous la vidéo au hasard : "If you look closely, muscle def ON shows muscles definition in a realistic curvature while muscle def OFF is fixed, flat physique."
Il y a bien une différence, juste que moi je la vois pas, et je pense qu'il faut vraiment se pencher pour la voir. A partir de là je questionne l'intérêt de cette techno là dans ce jeu. Peut être que foutre Spider-Man torse nu serait plus intéressant pour en démontrer les apports, mais en l'état.
Faut faire la part des choses entre DLSS, et déformation des muscles d'Insomniac dans mes coms. J'applaudis pas le tout au début pour ensuite cracher dessus... Je "crache" que sur l'un.
En ce qui concerne le DLSS, vivement l’équivalent chez AMD en effet mais à voir son efficacité car c’est surtout ça la force du DLSS de Nvidia, il est diablement efficace. Car depuis un moment on a le checkerboard qui est basé sur le même principe.
D’ailleurs le DLSS montre que le machine learning à beaucoup à apporter au JV et insomniac fait bien de travailler sur ce genre de techno.
https://i.imgur.com/3AqcCzt.gif
lamap Non en effet, si on n'a pas d'arrêt sur image, en gros la plupart du temps quand on joue... Je vois pas de différence, contrairement au RT, que j'ai beau trouvé de la même façon dispensable, surtout que ça bouffe énormément en ressource, mais au moins j'arrive à déceler facilement la diffrence des on/off RT. En laissant du temps à Insomniac, leur déformation de muscle deviendra certainement de plus en plus efficace visuellement, pour autant ça changera pas mon avis sur son utilité, pour moi, plein d'autres aspect, dans le JV en général, devrait mériter la priorité des devs. Voir que les muscles de Batman, Spider-Man, Crackdown bouge ou pas... Pas intéressé perso. La discussion me fait repenser aux flammes promues à l'époque dans l'arlesienne Deepdown, ça c'est le genre de détail qui me botte le plus dans une next gen, surtout quand ça influe sur le gameplay.
Alors juste un point (je me permets)
- La Xbox Series S|X (et la PS5 ?) ont des unités de calcul hardware en Machine Learning
- Le DLSS est calculé par les unités Tensor Core qui sont... Des unités de Machine Learning...
DONC
En théorie, AMD peut sortir un "DLSS" sur leurs cartes, et sur Xbox Series S|X (je ne sais pas pour la PS5 par contre).
En pratique, je ne comprends pas trop ce qui bloque AMD. Est-ce trop compliqué à programmer et à mettre en place ?
suzukube AMD c'est vraiment petit comparé à nVidia, le ML ça demande d'entrainer des IA donc des ingés et de la puissance de calcul, pour le coup ils ont choisi de se baser sur le DirectML de DirectX.
Après je comprends ton propos et j'ai aussi hâte de voir le machine learning dans d'autres domaines
Avec MM, ils peuvent le faire car ils réutilisent le moteur de l'ancien Spiderman PS4 donc qui est loin de mettre à genoux le GPU de la PS5 sur la partie 3D.
Enfin de toute façon, le moteur de MM est celui de Spiderman PS4 et il est sortie aussi sur PS4 donc ça m'étonnerait qu'il mettre à genoux une PS5...
Et puis ça ne change rien au fait que ton GPU à une capacité de "100", si tu en utilise "20" pour le machine learning, il en reste "80" pour le reste.
C'est tout l'intérêt des cartes NVidia avec coeurs séparés.
Est-ce qu'Insomniac à dû gratter quelque part pour cette feature sans que ça plombe les perfs ? Ont sais pas et de toute façon certains vont faire des analyses et comparo d'ici peut donc en aura un élément de réponse mais ça serait bien que pour une fois ont se vautre pas dans la simplicité en disant "ça va être de la merde de toute façon" si ça peut décharger les devs de certaines actions.
Au final :
Le Ray Tracing a l'air de bouffer ENORMEMENT PLUS de ressources que sur une carte RTX 3XXX (exemple : Control, même si Spider-Man est super impressionnant au niveau des reflets par je ne sais quelle magie).
Le DLSS, y'a juste... Aucune images de la solution de AMD ? Merci Spider-Man (encore lui) arrive à faire un travail de ouf sur le mode RT Performance.
Bref, j'sais pas trop quoi en penser au final...
Et pareil, rien n'indique que le ML sur les muscles ne soit pas une "astuces" de programmation (qui fonctionne visiblement)
Cela dit, la Xbox Series X possède en hardware cette puce, et je ne vois aucun jeu l'utiliser
les cartes AMD proposent leurs propres spécificités et ça serait bien qu'elles soient utilisés déjà.
MS propose déjà leur "Super-Résolution" et d'autres outils DirectML et incite les devs à l'utiliser.
pour Spiderman un gars d'Insomniac dis que c'est du ML est que c'est des algos d’inférence basés sur le hardware (il ne précise pas si c'est le gpu) faisons lui confiance.
Comme je l'expliquais, il n'y a rien de très compliqué, si tu as une capacité de 100, si le machine learning prend "20" de la capacité de 100, alors il ne reste que 80 pour le reste, donc y compris la 3D.
Après, à savoir si le machine learning prend 1 ou 5 ou 10 ou encore 20, tout dépend de l'utilisation qui en est fait de toute façon. Plus ce sera visible et utilisé, plus il faudra de la ressource.
suzukube Difficile de savoir, c'est assez vague et c'est grosso modo un énième énorme "pignolage" creux sans grandes explications et sans grande compréhension non plus de la part du rédacteur.
Si ça se trouve c'est génial, mais si ça se trouve c'est rien du tout.