Au vu des réactions, parfois à mon sens disproportionnées suite à la "révolution" du DLSS5, je constate que les joueurs ne sont clairement pas prêts pour le JV de demain avec toutes les technos à base d’IA qui arrivent. Ce n'est que mon avis, pas taper
Mais il faut reconnaître une chose :
Nvidia est très fort pour cacher ses technos.
DLSS, ray tracing… à chaque fois, personne ne voit vraiment venir les choses. Une vraie forteresse, pas comme certaines boîtes.
J’entends complètement les inquiétudes et les critiques sur le rendu, et elles sont légitimes. Je voulais faire cet article pour prendre un peu de distance, et ne pas se focaliser sur ce qui semble ne pas fonctionner.
Car très honnêtement, pour moi, le point central est :
la qualité de la production m'importe, peu importe les outils utilisés.
Des progres technologiques critiqués vivement par le passé :
Cette situation sent bon le vécu.
Le début du CGI au cinéma, c’était exactement les mêmes débats.
Jurassic Park, aujourd’hui considéré comme une révolution, a eu droit à des critiques :
- rendu jugé parfois “pas naturel” mais a mieux vieilli que les films de l'époque
- peur de remplacer les effets pratiques (les maquettes, jugées plus authentiques)
- inquiétude sur les métiers
Parlons aussi du cas de
Toy Story, qui était vu à l’époque comme un cauchemar artistique, notamment sur les personnages humains. Bon dieu de CGI
Et pourtant, on a eu depuis des films comme
Coco, qui est l’un des films les plus beaux et touchants qu’il m’ait été donné de voir.
Donc 30 ans plus tard ?
Les métiers du cinéma existent toujours. Ils ont évolué.
Et surtout :
on produit des images bien plus ambitieuses, plus facilement, plus vite, et avec moins de contraintes.
Une situation très similaire aujourd’hui avec l’IA.
Après, si on revient au
DLSS5 : le réduire à un simple filtre ou à une surcouche (comme j'ai lu ce matin

), c’est passer complètement à côté de la proposition technique.
Intégré au cœur des moteurs, avec toutes les infos de la scène (vecteurs de mouvement, historique, géométrie, lumière, matière, objets, textures…), il peut aller
bien au-delà d’un simple upscaler ou
algorithme de post-processing, et cette version le démontre.
Le vrai enjeu, ça va être la stabilité de l’image en mouvement, mais le DLSS a déjà prouvé savoir tenir compte du contexte.
Mais sur le principe, je trouve le potentiel complètement fascinant (et un peu effrayant, il est vrai).
Ça va permettre de
tendre vers tout un tas de rendus cinématographiques, hollywoodien, Pixar, animé avec beaucoup plus de facilité, et surtout
sans passer des minutes ou des heures à générer une seule image.
Si on parle purement de graphisme, puisque c’est le sujet ici :
- Vous voulez un Mario 3D qui se rapproche du rendu du film ?
- Un FIFA 'parfaitement' photoréaliste?
- Un Gran Turismo comme si vous y étiez, avec des abords de piste enfin crédibles ?
- Des PNJ d’open world qui ressemblent à autre chose que des pantins, autant dans leur rendu que dans leurs attitudes ?
Alors l’IA va faire gagner des dizaines d’années technologiques et rendre tout ça possible.
Et côté
dev, c’est exactement ce qu’on veut :
des outils qui permettent de faire plus, avec moins, et de
se concentrer sur l’aspect artistique et le game design — pas passer des heures sur “comment je vais modéliser moi-même ces 10 000 cailloux sur la route”.
Les technos comme la neural compression vont dans le même sens :
réduire drastiquement les coûts mémoire et bande passante, tout en gardant une qualité perçue équivalente.
Parfait pour les machines a basse consommation comme la Switch.
En clair :
produire mieux, plus vite, et avec moins de ressources.
Le vrai sujet derrière tout ça, ce n’est pas la techno.
C’est la place de l’humain.
Est-ce vraiment l’outil le problème ?
On critique souvent des outils comme Unreal Engine en parlant d’uniformisation visuelle.
Regardez :
-
Orbitals qui va sortir cet été sur Switch 2, c'est une vraie claque visuelle, une pépite réalisée sous UE.
-
Clair Obscur: Expedition 33, développé par une petite équipe avec une identité artistique singuliere et magnifique. Ce jeu aurait t il pu sortir avec un tel budget sur des outils moins performants que de l'UE? Probablement pas.
En tout cas oui, au milieu de centaines de projets osef qui fleurissent tous les jours sous UE, certains sortent du lot, l'outil n'y est pour rien.
Même outil. Résultats totalement différents.
Donc non, le problème, ce n’est pas le DLSS, ni l’IA, ni les moteurs.
Le problème, ça a toujours été et ça restera ce qu’on en fait.
La
DA restera toujours le travail des devs.
Un bon outil n’impose rien (et encore moins des levres pulpeuses à Grace

)
Il permet de configurer, d’itérer, d’aller plus loin.
Et au final, la seule vraie question :
Est-ce qu’on utilise ces technos pour élever la qualité… ou juste pour produire plus vite ?
Ça sera aux devs de décider, et aux joueurs de consommer ce qui leur semble réussi ou non.
https://www.premiere.fr/sites/default/files/styles/scale_crop_1280x720/public/2021-12/Collage%20sans%20titre%20%2812%29_4.jpg
On critique souvent des outils comme Unreal Engine en parlant d’uniformisation visuelle.
Regardez :
..."
Guilty Gear Strive = Unreal Engine 4
Dragon Ball FighterZ = Unreal Engine 4
Dragon Ball: Sparking! Zero = Unreal Engine 5
Ça et surtout le cache-misère que ça va devenir quand on regarde l'exemple des jeux Bethesda.
Au final, où est le problème si le résultat est meilleur ?
guyllan je suis un noob de Guilty Gear (et des jeux de combat en general), mais le jeu est un bijou visuel je trouve
masharu y'a pas besoin d'IA pour faire du cache misere. Ce dont tu parles, c'est comme prendre l'UE et d'utiliser que des assets par defaut, par manque de moyen / talent ou encore le motion blur, qui a été longtemps le cacher misere des jeux pas fluide.
Outil =/= Utilisation
Et si ma tante avec des couilles ont l'appellerait mon oncle. C'est facile de faire parler les gens
ça sera interessant de voir les perfs dans 6 mois, si le bousin est viable et s'ils ont paufiné leur utilisation du DLSS5
Peut etre que demain, reduire drastiquement le temps a realiser des milliers de visages crédibles de PNJ dans un OW comme Starfield (qui est un vrai echec a ce niveau en passant comme la plupart des OW d'ailleurs), bah ça t'offrira de nouvelles options :
1. economie
2. allouer ton budget ailleurs
3. sortir ton jeu plus rapidement
Dans tous les cas, tout le monde est gagnant.
churos45 effectivement vu comme ça personne n'est pret
Ce n’est clairement pas là que ça impressionne le plus.
Les vidéos à côté, comme AC Shadows avec le personnage qui regarde la forêt, ou Starfield avec le personnage qui se déplace, sont bien plus parlantes.
Là, on voit les personnages en temps réel avec ces visages, et c’est à ce moment-là qu’on se rend vraiment compte que c’est bluffant.
La vidéo en question : https://www.youtube.com/watch?v=1KxjMZrfuB4
Les réactions sont les mêmes qu’avec les trailers ratés de jeux services et autres annonces à la diablo inferno.
À un moment, quand un bad buzz est lancé, c’est qu’il y a un malaise.
Corrigible ou pas, le fait est que dénaturer le design d’un jeu ne plait pas à beaucoup.
Et ce qui est « bon » pour bethesda, ne l’est pas forcément pour un autre studio.
Hate de voir les heros de baldur’s gate souillés.
Et on ne parle meme pas des charac design volontairement low def ou moche « inséré TLOU2 svp »
Sincèrement, je travaille dans le jeu vidéo depuis 15 ans, et y a pas grand monde qui est très enthousiasmé par ça. Je pense que Nvidia a un peu raté sa communication pour le coup. Après faudra voir l'API réelle et voir ce qu'elle permettra vraiment comme contrôle à la fin.
Mais clairement, même le nom de la technologie ne fonctionne plus. Dans DLSS il y a "Super Sampling" donc prendre une image basse résolution et l'agrandir pour rester le plus proche de la version originale. C'est plus du tout ce qui est fait ici, puisque cette version viens proposer un filtre par dessus revu par l'IA.
Aussi, ce sont des films rendu légendaires dès leurs présentations publiques.
Moi je suis Hype de fou par les possibiilité, Imagine un emulateur PS1 avec un DLSS 5 qui te donne un rendu PS4 ^^ trop classe, Ou un Zelda BOTW en rendu realiste ? en vrai chacun fera ce qu'il veux, et au final ce qui devra etre Bossé en priorité par les studio c'est LE GAME DESIGN et LE GAMEPLAY ! Et ce c'est cool !
Décidément depuis les NFT, ça mise toujours là il ne faut pas hein
C’est pas vraiment honnête de faire genre les progrès du passé sont similaires à un truc qui remplace un travail d’artiste par un snap filter
Même si le film a été acclamé, plusieurs critiques et analystes ont exprimé des inquiétudes sur l’usage croissant des CGI.
1. The New York Times – Janet Maslin (1993)
Maslin salue les effets numériques mais note que Hollywood pourrait “se reposer trop sur la technologie”.
Source : NYT Review, June 11, 1993.
2. Roger Ebert (Chicago Sun-Times, 1993)
Ebert adore le film mais écrit que les CGI pourraient “remplacer l’artisanat traditionnel”.
Source : Ebert Review, 1993.
3. Cinefex #55 (1993)
Le magazine technique rapporte que plusieurs artistes d’effets spéciaux craignaient que les CGI “mettent en danger les métiers des animatroniques”.
Source : Cinefex, Issue 55.
4. Interviews de Stan Winston
Winston lui-même (créateur des animatroniques) explique que certains techniciens avaient peur que la 3D “prenne leur place”.
Source : Stan Winston School Archives.
Toy Story a été salué, mais certains critiques trouvaient la 3D moins expressive que la 2D.
1. Los Angeles Times – Kenneth Turan (1995)
Turan écrit que l’animation 3D est “moins chaleureuse” que la 2D traditionnelle.
Source : LA Times Review, Nov. 1995.
2. The Washington Post – Desson Howe (1995)
Howe note que les humains du film ont un rendu “étrange” et “rigide”.
Source : Washington Post Review, 1995.
3. Variety (1995)
Variety souligne que la 3D donne un aspect “plastique” aux personnages.
Source : Variety Review, 1995.
4. Animation Magazine (1996)
Plusieurs animateurs traditionnels expriment leur inquiétude que Disney “abandonne la 2D”.
Source : Animation Magazine, 1996.
J'ai pas eu le temps d'en parler encore à mes potes qui sont sur des moteurs de jeu, j'ai hâte d'avoir leur retour
akinen pourtant je me souviens très bien quand j'étais gosse avoir entendu énormément de critique sur les images de synthèse dans les films.
La perte du coup de crayon d'un côté, des vrais acteurs et décors authentiques de l'autre, ça faisait bcp parler.
D'ailleurs le célèbre John Lasseter a été viré de Disney parce qu'il souhaitait faire des films d'animation en 3D sur ordinateur...
Disney n'aimait visiblement pas du tout l'idée à l'époque
wickette je suis pas d'accord, dans les 2 cas cest une transformation du métier.
Les gens ne devaient pas trouver honnête à l'époque de ne plus tout dessiner mais laisser l'ordinateur gérer tout un tas de chose a leur place déjà ?
Perso c’etait incroyable les demo « toy story » à la TV et jurassic parc, je l’ai vu après sortie ciné en plein air à la fête de ville. La meilleure séance de ma vie.
Tous les gamins etaient ouf! Des films cultes dès le debut
Vous êtes vraiment insouciant dans la vie
Après je suis pas devin, mais j'ai quand même le sentiment aussi qu'avec quelques ajustements, ils arriveront à corriger les écarts en matière de DA d'ici a ce que la technologie soit adoptée, surtout au niveau des visages ou c'est vraiment too much sur certaines scènes.
A mon avis Capcom and co ont pris bonne note vu les retours
Oui tout a fait . On verra d'ailleurs le boulot fait sur l'UE5 concernant Crimson Desert pour les versions PS5-SERIE X & S
Si c'est ca le jeu vidéo de demain effectivement, je suis pas prêt et le serais surement jamais du coup.
Je suis même plutôt choqué de voir que des personnes qui se disent être des gamers trouvent ca super. Le grand publique limite j'arrive a comprendre mais des gamers, vraiment pas.
Ceci dit, si on se recentre sur l'outil, le gap visuel qu'il peut proposer est juste incroyable, couplée à du Path Tracing c'est digne d'etre un enorme "gap generationnel" technique qu'on ne pensait plus jamais revoir.
Je suis tres curieux de voir les rendus des jeux sans et avec le DLSS5 dans les années à venir. Mais j'ai pas vraiment de doute qu'une boite comme Nvidia et des gros editeurs comme Capcom arrivent a ajuster le curseur au bon endroit pour que le rendu soit cohérent, et non pas tres artificiel comme c'est le cas ajd.
Et un peu à l'image du DLSS et du Ray Tracing qui était sorti 1 an et demi avant la sortie de la current gen, je me demande si Nvidia ne se garde pas ce type de techno secrète sous le coude jusqu'a temps que les consoles next gen soient bien etablies pour empecher AMD / Sony / Microsoft d'avoir le temps de répondre efficacement.
ça fait 2 fois qu'ils font le coup, c'est pas innocent.
roivas l'outil et son utilisation manque encore de maturité
ca ne va pas arranger les chose la suite, et le problème ici n'est pas l'IA mais de réussir a rendre plus moche une image d'origine... ,
un peu comme les jap qui sont super en animation 2D mais qui te sortent aujourd'hui des scène 3D digne des plus horrible scène de la ps1
Bref la technologie n'est même pas encore la qu'on voit les abus arriver, déja que le jv aujourd'hui c'est la déchéance totale, le jv de demain sera donc plus cher, moins fun et maintenant on va pouvoir rajouter plus moche et sans plus aucun esprit artistique...
Les studios virent des gens, se font racheter ou font faillite en boucle, bein c'est pas près de s'améliorer si c'est ca l'avenir, ca hurlait déja au scandale quand des images était généré par IA, maintenant ca sera integrer directement dans la carte graphique, et pour revenir a un sujet dont je discutait précédement, vu que ce qui est généré par IA a 50% de ne pas pouvoir être copyright les dev qui vont utiliser le nouveau dlss ca va donner quoi juridiquement ?
Ah oui, BG3, Elden Ring, Clair Obscur, Silksong, Astrobot, etc...... la liste est tres longue, quelle déchance le JV ces dernieres années, avec la plupart de ces titres
Il y a bcp de jeux de merdes, mais il y a tjs autant d'excellents jeux, sinon plus.
Ah oui c'est sur que ajouter de l'IA dans le pipeline de rendu pour créer des images plus fideles au lieux d'algo de post processing qui ont pas ces infos, qui sont donc moins efficaces, ça va VACHEMENT faire baisser le fun des jeux
Et le coté artistique, justement, non, j'en parle aussi.
Le DLSS est et sera le grand fautif c'est sur du crash du JV...
Merci pour tout t'intervention, t'es tjs au top
5 jeux en 5 ans... oui c'est les goty... la liste est pas longue elle est ridicule... tu pourra rajouter pragmata, pour 2026 comme ca on sera a 6 en 6 ans
Ah oui c'est sur que ajouter de l'IA dans le pipeline de rendu pour créer des images plus fideles au lieux d'algo de post processing qui ont pas ces infos, qui sont donc moins efficaces, ça va VACHEMENT faire baisser le fun des jeux je vois pas trop le rapport avec le sujet.
alors je vais te déstructurer ma phrase : "Le jv de demain sera donc plus cher, moins fun " ca c'est le constat actuel et a venir déjà prévu : "et maintenant on va pouvoir rajouter plus moche et sans plus aucun esprit artistique..." ca c'est ce qui va se rajouter avec le dlss, c'est du niveau CM1 mais je pense que tu a du sauter des classes einstein...
Et le coté artistique, justement, non, j'en parle aussi
oui et ? mon commentaire était une réflexion personnelle par rapport a ton titre, il ne t'était pas destiné sinon je t'aurais quotté et en aucun cas je n'ai envie de discuter avec toi, donc je fais juste un effort ici pour te répondre
Le DLSS est et sera le grand fautif c'est sur du crash du JV...
le crash on y est déja en plein dedans si tu n'as pas remarquer donc non, mais par contre c'est sur que l'IA pour remplacer les faces ca va pas aider a remonter la pente a l'avenir...
Quand à Toy Story le 1 j’ai toujours trouvé les humains moche même à l’époque. Et franchement, même si j’aime bien certains Pixar, est-ce que on y perdrait vraiment à ce qu’ils n’existent pas ? On met n’importe quel Miyazaki en face ça ne fait pas le poids en terme d’intérêt, de profondeur et de beauté d’animation.
Sauf que le CGI de l'époque était (est toujours) ultra déterministe, la machine faisait exactement ce que tu voulais, tu controlais ton outil de A à Z.
Ici tu es face à un outil qui "remplace" ta contribution par quelque chose de déjà render
Artiste CGI/3D tu m'accorderas, c'est tout un métier
En fait pour le moment on a aucune idée des performances si je dis pas de bêtises, donc est ce un gouffre ou non je sais.
S'ils avaient dit "on a besoin de cette puissance de calcul pour le DLSS5" a l'heure actuelle pr le faire fonctionner je t'aurais dit oui ça va être compliqué à optimiser.
wickette je suis pas tout à fait d'accord parce que le but du DLSS est justement d'être hyper déterministe, sinon comment ferait il pour être aussi stable image après image ?
Et justement il excelle en la matière.
Donc a partir du moment où tu sais exactement quel sera le rendu du visage de ton personnage passé à la moulinette du DLSS, bah tu obtiendras un rendu visuel inatteignable avec la technologie actuelle, qui se rapprochera d'autant plus du rendu CGI initialement souhaité, ou est le problème ?
En fait, il n'y a plus de problème, la seule chose c'est qu'il faudra garantir la stabilité du model entraîné, parce qu'avec du DLSS override, si tu peux changer le model par erreur tu pourrais obtenir un résultat un peu différent et ça serait potentiellement problématique ^^
pimoody oui après c'est ton avis, c'est respectable, même si je le partage certainement pas entièrement.
Le problème ici est que le modèle DLSS et les datasets utilisés lors de son entrainement sont chez Nvidia et c'est eux qui vont 'monopoliser' le "output" de ton rendu, alors certes tu as des paramètres (contrastes etc) mais le fait est que le design devient centralisé dans un llm externe au studio.
A moins que les studios pourront fournir leurs propres datasets d'entrainements, je ne vois pas comment c'est aussi deterministe que le CGI. Tu rentres tes paramètres et tu ne contrôles pas vraiment ce qui en sort, les versions de DLSS sortiront et ton rendu entres 2 périodes données ne sera plus vraiment le même, car tu ne contrôle pas l'essence du neural rendering: le modèle et ses data d'entrainements, les mises à jour, la direction prise pour modifier le modèle etc
C'est la grosse différence ici: Le contrôle, un LLM c'est très couteux à entrainer et c'est tout un métier (plutôt une armée de métiers)
Pour moi, la clé, c'est vraiment la modularité et la définition du contexte pour éviter le manque de contrôle et un rendu générique.
Le modèle dans son ensemble est fourni par Nvidia et le restera, mais c'est pas nécessairement un problème.
Comment je vois les choses dans le futur alors?
Le modèle va s'orienter vers la fin d'un gros bloc monolithique si c'est pas déjà le cas, en s'approchant d'une approche comme le Mixture of Experts dont tu as peut être entendu parlé?
https://huggingface.co/blog/moe
Je me demande d'ailleurs si DLSS Transformer est pas passé en MoE, je me souviens pas avoir lu l'info.
Bref, tu pourrais imaginer avoir la possibilité de greffer ton propre module, qui a été entraîné avec tes propres CGI, shaders, etc. Une partie de cette spécialisation, du contexte, pourrait même être injectée / compilée au runtime si besoin. Lors du démarrage, un peu comme les shaders sur PC il est chargé afin de réorienter ton jeu vers tes propres experts maisons pour le rendu.
Et la tu rends le modele Nvidia ultra déterministe et personnalisable
Tu parles de LLM, à mon boulot on vient d'avoir une licence pour claude.ai. Pour te donner une idée, le repo git qui contient le cœur de notre projet (sans toutes les fonctionnalités modulaires ajoutées via plugins), fait à lui tout seul 4+ millions de lignes de code.
Donner du contexte est ultra important si l'on veut qu'il n'analyse pas tout le repos à chaque requête
RE requiem est une master classe d'opti par exemple, le jeu tourne sur de vieille carte graphique tout en gardant la cohérence graphique du jeu.
Il aurait pu se faciliter la tache à faisant tourner le jeu que sur console et les pc les plus puissant en activant un bouton pour optimiser le tout.
Quel studio va continuer à faire comme eux?