51love > blog
    tags :
    4
    Likes
    Who likes this ?
    hypermario, tynokarts, jackfrost, slyder
    posted the 03/17/2026 at 03:07 PM by 51love
    comments (57)
    potion2swag posted the 03/17/2026 at 03:12 PM
    what if
    supasaiyajin posted the 03/17/2026 at 03:14 PM
    La prochaine étape, les devs auront un prompt pour générer un jeu tout entier. Peut être avec le DLSS6 ?
    jenicris posted the 03/17/2026 at 03:16 PM
    L'IA
    guyllan posted the 03/17/2026 at 03:19 PM
    "Est-ce vraiment l’outil le problème ?

    On critique souvent des outils comme Unreal Engine en parlant d’uniformisation visuelle.
    Regardez :
    ..."



    Guilty Gear Strive = Unreal Engine 4
    Dragon Ball FighterZ = Unreal Engine 4
    Dragon Ball: Sparking! Zero = Unreal Engine 5
    supasaiyajin posted the 03/17/2026 at 03:20 PM
    Plus sérieusement, on n'a vu que de courts extraits, est ce qu'on a une vraie phase de gameplay avec ce truc ?
    masharu posted the 03/17/2026 at 03:21 PM
    Moi c'est votre acquiescement qui est inquiétant, pas pour moi mais pour tous les gens dont c'est le métier de réaliser les modèles et les effets.

    Ça et surtout le cache-misère que ça va devenir quand on regarde l'exemple des jeux Bethesda.
    51love posted the 03/17/2026 at 03:25 PM
    supasaiyajin Et si Miyamoto avait eu accès à ce genre de techno au début de sa carrière, il aurait pu créer ses jeux à coups de prompts plutôt que de passer des heures à écrire du code.

    Au final, où est le problème si le résultat est meilleur ?

    guyllan je suis un noob de Guilty Gear (et des jeux de combat en general), mais le jeu est un bijou visuel je trouve


    masharu y'a pas besoin d'IA pour faire du cache misere. Ce dont tu parles, c'est comme prendre l'UE et d'utiliser que des assets par defaut, par manque de moyen / talent ou encore le motion blur, qui a été longtemps le cacher misere des jeux pas fluide.

    Outil =/= Utilisation
    altendorf posted the 03/17/2026 at 03:28 PM
    shinz0 posted the 03/17/2026 at 03:28 PM
    DLSS5 ça peut aider à faciliter sur les graphismes mais avec ce gain de temps vont-ils l'utiliser pour peaufiner le reste
    ouken posted the 03/17/2026 at 03:29 PM
    N vidia a tuer le game pour moi tout les rendu son bien plus qualitatif ces ça un gap pour moi pas leur vœux truc AMD claqué au sol
    51love posted the 03/17/2026 at 03:29 PM
    altendorf hey j'ai dit pas taper
    masharu posted the 03/17/2026 at 03:30 PM
    51love Tu aimes peut être mais c'est bien un cache misère dans le cas de Starfield. Ce qui va proposer problème c'est quand certains studios ne feront plus d'effort sur les visuels lorsque le parc d'utilisateurs DLSS5 sera bien conséquent.

    Et si ma tante avec des couilles ont l'appellerait mon oncle. C'est facile de faire parler les gens .
    51love posted the 03/17/2026 at 03:31 PM
    supasaiyajin phase de gameplay peut etre durant la GDC mais pr le moment, j'ai rien vu

    ça sera interessant de voir les perfs dans 6 mois, si le bousin est viable et s'ils ont paufiné leur utilisation du DLSS5
    5120x2880 posted the 03/17/2026 at 03:32 PM
    Vu ce qu'ils peuvent faire, ils pourraient aussi bien appliquer du esrgan en direct, j'aurais préféré. Après, concernant l'horreur(graphique) de Resident Evil, c'est peut-être pas la techno le problème mais ce qu'on en/va en faire. Dans tous les cas il y aura des plaintes, des corrections, des revirements, c'est pas si inquiétant en réalité.
    churos45 posted the 03/17/2026 at 03:35 PM
    "les joueurs ne sont pas prêts", économiquement ça se tient. Le truc tourne sur 2 RTX 5090 actuellement, et même s'il est amené à fonctionner sur une seule carte, ce sera sûrement les plus haute de gamme. Donc avant plusieurs années, la majorités des joueurs ne seront effectivement pas près d'avoir cela devant eux
    51love posted the 03/17/2026 at 03:39 PM
    masharu Les studios allouent leur argent et leur ressources là ou ils en ont besoin.

    Peut etre que demain, reduire drastiquement le temps a realiser des milliers de visages crédibles de PNJ dans un OW comme Starfield (qui est un vrai echec a ce niveau en passant comme la plupart des OW d'ailleurs), bah ça t'offrira de nouvelles options :
    1. economie
    2. allouer ton budget ailleurs
    3. sortir ton jeu plus rapidement

    Dans tous les cas, tout le monde est gagnant.

    churos45 effectivement vu comme ça personne n'est pret on verra bien d'ici la sortie le surcout pour activer cette techno ou non.
    shining posted the 03/17/2026 at 03:41 PM
    Le problème lors de la présentation, c’est que Nvidia a fourni des vidéos centrées uniquement sur les visages, ce qui est un très mauvais move.

    Ce n’est clairement pas là que ça impressionne le plus.

    Les vidéos à côté, comme AC Shadows avec le personnage qui regarde la forêt, ou Starfield avec le personnage qui se déplace, sont bien plus parlantes.

    Là, on voit les personnages en temps réel avec ces visages, et c’est à ce moment-là qu’on se rend vraiment compte que c’est bluffant.

    La vidéo en question : https://www.youtube.com/watch?v=1KxjMZrfuB4
    akinen posted the 03/17/2026 at 03:43 PM
    Oh que si. C’est du niveau du TV TV TV.

    Les réactions sont les mêmes qu’avec les trailers ratés de jeux services et autres annonces à la diablo inferno.

    À un moment, quand un bad buzz est lancé, c’est qu’il y a un malaise.

    Corrigible ou pas, le fait est que dénaturer le design d’un jeu ne plait pas à beaucoup.

    Et ce qui est « bon » pour bethesda, ne l’est pas forcément pour un autre studio.

    Hate de voir les heros de baldur’s gate souillés.

    Et on ne parle meme pas des charac design volontairement low def ou moche « inséré TLOU2 svp »
    adelfhitlor posted the 03/17/2026 at 03:51 PM
    Je suis tout à fait prêt pour le JV de demain, je suis même absolument pour les prises de risques techniques faites par certains devs même si c'est parfois au détriment des perfs. Par contre le mauvais JV, ça, que ce soit aujourd'hui ou demain, ça ne me fait pas bander. Et un jeu au visuel générique sujet à des biais évidents, inconsistant et incohérent a de grandes chances de faire partie de cette dernière catégorie.
    thauvinho posted the 03/17/2026 at 03:55 PM
    51love +1 pour tout ce que tu dis. Perso je suis hype par ce DLSS5
    5120x2880 posted the 03/17/2026 at 03:59 PM
    churos45 Actuellement même si t'as 10 RTX 5090 tu ne le fera pas tourner, ça tourne juste dans la démo de Nvidia, et ils auraient pu prendre une RTX 8000 à 10 000€, c'est pas pour ça qu'il en faudra une dans tous les foyer, c'est eux qui produisent les GPU, ce serait bizarre qu'ils utilisent autre chose que des 5090, comme si Elon Musk allait rouler en Zoé.
    nigel posted the 03/17/2026 at 04:01 PM
    On dirait Yves Guillemot qui disait que les joueurs ne comprenaient pas les NFTs

    Sincèrement, je travaille dans le jeu vidéo depuis 15 ans, et y a pas grand monde qui est très enthousiasmé par ça. Je pense que Nvidia a un peu raté sa communication pour le coup. Après faudra voir l'API réelle et voir ce qu'elle permettra vraiment comme contrôle à la fin.

    Mais clairement, même le nom de la technologie ne fonctionne plus. Dans DLSS il y a "Super Sampling" donc prendre une image basse résolution et l'agrandir pour rester le plus proche de la version originale. C'est plus du tout ce qui est fait ici, puisque cette version viens proposer un filtre par dessus revu par l'IA.
    akinen posted the 03/17/2026 at 04:03 PM
    Ps: j’ai vecu la sortie de Jurassic Parc et celle de toy story. Je n’ai vu, lu et entendu que des éloges sur le plan visuel. Et meme aujourd’hui, toutes les vidéos en parlant ne relèvent aucune critique fondées sur les technologies employées. D’ailleurs Jurassic utilisait aussi des maquettes.

    Aussi, ce sont des films rendu légendaires dès leurs présentations publiques.
    hypermario posted the 03/17/2026 at 04:13 PM
    51love Merci pour l'article, tres pertinant.

    Moi je suis Hype de fou par les possibiilité, Imagine un emulateur PS1 avec un DLSS 5 qui te donne un rendu PS4 ^^ trop classe, Ou un Zelda BOTW en rendu realiste ? en vrai chacun fera ce qu'il veux, et au final ce qui devra etre Bossé en priorité par les studio c'est LE GAME DESIGN et LE GAMEPLAY ! Et ce c'est cool !
    masharu posted the 03/17/2026 at 04:15 PM
    shining Non quand on dirait un filtre Tiktok, même sur le level-design ça n'impressionnent pas et il n'y a que les technobros qui sont là à expliquer que tout le monde est gagnant quand c'est faux, ça va licencier ce qui n'est plus utile dans les studios quand ça masse-licencie déjà par simple incompétence.

    Décidément depuis les NFT, ça mise toujours là il ne faut pas hein ...
    wickette posted the 03/17/2026 at 04:20 PM
    Comparer Jurassic Park ou Toy Story à ça

    C’est pas vraiment honnête de faire genre les progrès du passé sont similaires à un truc qui remplace un travail d’artiste par un snap filter
    guyllan posted the 03/17/2026 at 04:22 PM
    akinen
    Jurassic Park (1993)
    Même si le film a été acclamé, plusieurs critiques et analystes ont exprimé des inquiétudes sur l’usage croissant des CGI.

    1. The New York Times – Janet Maslin (1993)
    Maslin salue les effets numériques mais note que Hollywood pourrait “se reposer trop sur la technologie”.
    Source : NYT Review, June 11, 1993.

    2. Roger Ebert (Chicago Sun-Times, 1993)
    Ebert adore le film mais écrit que les CGI pourraient “remplacer l’artisanat traditionnel”.
    Source : Ebert Review, 1993.

    3. Cinefex #55 (1993)
    Le magazine technique rapporte que plusieurs artistes d’effets spéciaux craignaient que les CGI “mettent en danger les métiers des animatroniques”.
    Source : Cinefex, Issue 55.

    4. Interviews de Stan Winston
    Winston lui-même (créateur des animatroniques) explique que certains techniciens avaient peur que la 3D “prenne leur place”.
    Source : Stan Winston School Archives.

    Toy Story (1995)
    Toy Story a été salué, mais certains critiques trouvaient la 3D moins expressive que la 2D.

    1. Los Angeles Times – Kenneth Turan (1995)
    Turan écrit que l’animation 3D est “moins chaleureuse” que la 2D traditionnelle.

    Source : LA Times Review, Nov. 1995.
    2. The Washington Post – Desson Howe (1995)
    Howe note que les humains du film ont un rendu “étrange” et “rigide”.
    Source : Washington Post Review, 1995.

    3. Variety (1995)
    Variety souligne que la 3D donne un aspect “plastique” aux personnages.
    Source : Variety Review, 1995.

    4. Animation Magazine (1996)
    Plusieurs animateurs traditionnels expriment leur inquiétude que Disney “abandonne la 2D”.
    Source : Animation Magazine, 1996.
    51love posted the 03/17/2026 at 04:25 PM
    nigel hahaha tu m'as tué avec les NFT. ceci dit, putain la encore je pense que la technologie est intéressante et répond à un besoin pour une propriété virtuelle totalement indépendante d'un réseau propriétaire

    J'ai pas eu le temps d'en parler encore à mes potes qui sont sur des moteurs de jeu, j'ai hâte d'avoir leur retour

    akinen pourtant je me souviens très bien quand j'étais gosse avoir entendu énormément de critique sur les images de synthèse dans les films.

    La perte du coup de crayon d'un côté, des vrais acteurs et décors authentiques de l'autre, ça faisait bcp parler.

    D'ailleurs le célèbre John Lasseter a été viré de Disney parce qu'il souhaitait faire des films d'animation en 3D sur ordinateur...

    Disney n'aimait visiblement pas du tout l'idée à l'époque

    wickette je suis pas d'accord, dans les 2 cas cest une transformation du métier.

    Les gens ne devaient pas trouver honnête à l'époque de ne plus tout dessiner mais laisser l'ordinateur gérer tout un tas de chose a leur place déjà ?
    51love posted the 03/17/2026 at 04:27 PM
    guyllan Merci. Dans le fond ça rejoint ce que je dis ici. Les mêmes craintes envers des outils pas encore bien compris ni maîtrisé a des époques différentes
    akinen posted the 03/17/2026 at 04:29 PM
    51love disney oui, la reception publique etait folle.

    Perso c’etait incroyable les demo « toy story » à la TV et jurassic parc, je l’ai vu après sortie ciné en plein air à la fête de ville. La meilleure séance de ma vie.

    Tous les gamins etaient ouf! Des films cultes dès le debut
    pcverso posted the 03/17/2026 at 04:29 PM
    Il y aura toujours des gens contre le progrès, mais bon quelque part on s'en fou , quand cette tech sera dispo ceux qui voudront jouer avec y jouront les autres mettron le dlss en off et tout le monde sera content
    masharu posted the 03/17/2026 at 04:33 PM
    pcverso Tu mettras le DLSS5 off et ça ressemblera à ça.

    Vous êtes vraiment insouciant dans la vie .
    51love posted the 03/17/2026 at 04:35 PM
    akinen ah oui c'était dingue je dois bien l'avouer mais c'était pas l'avis de tout le monde même si globalement la réception du public a été très bonne.

    Après je suis pas devin, mais j'ai quand même le sentiment aussi qu'avec quelques ajustements, ils arriveront à corriger les écarts en matière de DA d'ici a ce que la technologie soit adoptée, surtout au niveau des visages ou c'est vraiment too much sur certaines scènes.

    A mon avis Capcom and co ont pris bonne note vu les retours et Nvidia va rendre l'outil plus paramétrable si besoin.
    pcverso posted the 03/17/2026 at 04:42 PM
    masharu oui cest évident le jeu sera fait sans moteur juste avec le dlss que suis je bête, d'ailleurs les carte amd deviendront inutilisable
    djfab posted the 03/17/2026 at 05:05 PM
    "Au vu des réactions, parfois à mon sens disproportionnées" : COMPLÈTEMENT D'ACCORD ! J'ai halluciné en lisant les critiques, alors que globalement on gagne en qualité je trouve ! Pour les joueurs, on dirait que l'IA c le mal !
    masharu posted the 03/17/2026 at 05:05 PM
    pcverso On peut résumer ainsi : ce qui compte c'est d'être à la pointe, qu'importe les conséquences .
    rogeraf posted the 03/17/2026 at 05:12 PM
    51love
    Oui tout a fait . On verra d'ailleurs le boulot fait sur l'UE5 concernant Crimson Desert pour les versions PS5-SERIE X & S
    thauvinho posted the 03/17/2026 at 05:15 PM
    rogeraf C'est pas de l'UE5 pour Crimson Desert, c'est un moteur maison
    rogeraf posted the 03/17/2026 at 05:16 PM
    thauvinho Ah pardon, ba il envoie leur moteur
    roivas posted the 03/17/2026 at 05:47 PM
    je vois pas de réaction disproportionnée perso, je rendu est jsute dégelasse et du niveau AI slop qu'on peut voir sur facebook & co. Ca gâche vraiment tout.
    Si c'est ca le jeu vidéo de demain effectivement, je suis pas prêt et le serais surement jamais du coup.
    Je suis même plutôt choqué de voir que des personnes qui se disent être des gamers trouvent ca super. Le grand publique limite j'arrive a comprendre mais des gamers, vraiment pas.
    51love posted the 03/17/2026 at 05:54 PM
    djfab L'image produite est souvent assez perturbante au niveau des visages et la proposition est largement critiquable de ce qu'on en a vu jusque là.

    Ceci dit, si on se recentre sur l'outil, le gap visuel qu'il peut proposer est juste incroyable, couplée à du Path Tracing c'est digne d'etre un enorme "gap generationnel" technique qu'on ne pensait plus jamais revoir.

    Je suis tres curieux de voir les rendus des jeux sans et avec le DLSS5 dans les années à venir. Mais j'ai pas vraiment de doute qu'une boite comme Nvidia et des gros editeurs comme Capcom arrivent a ajuster le curseur au bon endroit pour que le rendu soit cohérent, et non pas tres artificiel comme c'est le cas ajd.

    Et un peu à l'image du DLSS et du Ray Tracing qui était sorti 1 an et demi avant la sortie de la current gen, je me demande si Nvidia ne se garde pas ce type de techno secrète sous le coude jusqu'a temps que les consoles next gen soient bien etablies pour empecher AMD / Sony / Microsoft d'avoir le temps de répondre efficacement.

    ça fait 2 fois qu'ils font le coup, c'est pas innocent.

    roivas l'outil et son utilisation manque encore de maturité
    olex posted the 03/17/2026 at 05:56 PM
    Tout dépend de comment sera employée cette tech. En attendant, elle a besoin de pas mal de puissance, et c'est clairement pas la bonne période pour se taper +700 € minimum pour gagner en réalisme chez le consommateur. Encore une fois, à qui ça va profiter dans l'immédiat ? A peu de gens.
    keiku posted the 03/17/2026 at 05:57 PM
    les joueurs ne sont pas près c'est d'ailleurs pour ca qu'ils s'enfuie sur switch et sur mobile

    ca ne va pas arranger les chose la suite, et le problème ici n'est pas l'IA mais de réussir a rendre plus moche une image d'origine... ,

    un peu comme les jap qui sont super en animation 2D mais qui te sortent aujourd'hui des scène 3D digne des plus horrible scène de la ps1

    Bref la technologie n'est même pas encore la qu'on voit les abus arriver, déja que le jv aujourd'hui c'est la déchéance totale, le jv de demain sera donc plus cher, moins fun et maintenant on va pouvoir rajouter plus moche et sans plus aucun esprit artistique...

    Les studios virent des gens, se font racheter ou font faillite en boucle, bein c'est pas près de s'améliorer si c'est ca l'avenir, ca hurlait déja au scandale quand des images était généré par IA, maintenant ca sera integrer directement dans la carte graphique, et pour revenir a un sujet dont je discutait précédement, vu que ce qui est généré par IA a 50% de ne pas pouvoir être copyright les dev qui vont utiliser le nouveau dlss ca va donner quoi juridiquement ?
    51love posted the 03/17/2026 at 06:10 PM
    keiku
    le jv aujourd'hui c'est la déchéance totale


    Ah oui, BG3, Elden Ring, Clair Obscur, Silksong, Astrobot, etc...... la liste est tres longue, quelle déchance le JV ces dernieres années, avec la plupart de ces titres

    Il y a bcp de jeux de merdes, mais il y a tjs autant d'excellents jeux, sinon plus.

    le jv de demain sera donc plus cher, moins fun et maintenant on va pouvoir rajouter plus moche et sans plus aucun esprit artistique...


    Ah oui c'est sur que ajouter de l'IA dans le pipeline de rendu pour créer des images plus fideles au lieux d'algo de post processing qui ont pas ces infos, qui sont donc moins efficaces, ça va VACHEMENT faire baisser le fun des jeux je vois pas trop le rapport avec le sujet.

    Et le coté artistique, justement, non, j'en parle aussi.

    Le DLSS est et sera le grand fautif c'est sur du crash du JV...

    Merci pour tout t'intervention, t'es tjs au top
    51love posted the 03/17/2026 at 06:12 PM
    olex on verra a partir de quel GPU on pourra l'utiliser, difficile a dire, meme si pour cette demo, il fallait 2 GPU (dont un dédié au DLSS5).
    olex posted the 03/17/2026 at 06:43 PM
    51love Oui, ils sont chauds pour réduire l'utilisation mais comme toute tech, il faudra voir sur la longueur. Moi, c'est plus le côté artistique qui me dérange, mais en soi, si la simplification aide le développeur au niveau de l'optmisation, de l'accélération de tâches ingrates, c'est déjà plus intéressant. Le rendu sur les décors est déjà plus satisfaisant, moins dès qu'on retouche les modèles humains.
    keiku posted the 03/17/2026 at 06:43 PM
    51love Ah oui, BG3, Elden Ring, Clair Obscur, Silksong, Astrobot, etc...... la liste est tres longue, quelle déchance le JV ces dernieres années, avec la plupart de ces titres

    5 jeux en 5 ans... oui c'est les goty... la liste est pas longue elle est ridicule... tu pourra rajouter pragmata, pour 2026 comme ca on sera a 6 en 6 ans a la grande époque on avait ca par mois... donc oui une déchéance, je n'ai pas d'autre mot...

    Ah oui c'est sur que ajouter de l'IA dans le pipeline de rendu pour créer des images plus fideles au lieux d'algo de post processing qui ont pas ces infos, qui sont donc moins efficaces, ça va VACHEMENT faire baisser le fun des jeux je vois pas trop le rapport avec le sujet.

    alors je vais te déstructurer ma phrase : "Le jv de demain sera donc plus cher, moins fun " ca c'est le constat actuel et a venir déjà prévu : "et maintenant on va pouvoir rajouter plus moche et sans plus aucun esprit artistique..." ca c'est ce qui va se rajouter avec le dlss, c'est du niveau CM1 mais je pense que tu a du sauter des classes einstein...


    Et le coté artistique, justement, non, j'en parle aussi

    oui et ? mon commentaire était une réflexion personnelle par rapport a ton titre, il ne t'était pas destiné sinon je t'aurais quotté et en aucun cas je n'ai envie de discuter avec toi, donc je fais juste un effort ici pour te répondre

    Le DLSS est et sera le grand fautif c'est sur du crash du JV...

    le crash on y est déja en plein dedans si tu n'as pas remarquer donc non, mais par contre c'est sur que l'IA pour remplacer les faces ca va pas aider a remonter la pente a l'avenir...
    pimoody posted the 03/17/2026 at 07:02 PM
    Les CGI c’est bien à petit dose ou quand ça s’accorde bien avec le reste. Au final on a quasi plus que ça au cinéma et ça perd toute la saveur, avec des images standard très lisse et formaté la plupart du temps. Combien de Jurassic World et pourtant pas un seul ne serais que sur ce plan là dégage ce que dégage Jurassic Park (de plus les cgi de Jurassic Park, c’est justement pas ce qu’il y a de plus réussi dans le film et qui vieillit le mieux).

    Quand à Toy Story le 1 j’ai toujours trouvé les humains moche même à l’époque. Et franchement, même si j’aime bien certains Pixar, est-ce que on y perdrait vraiment à ce qu’ils n’existent pas ? On met n’importe quel Miyazaki en face ça ne fait pas le poids en terme d’intérêt, de profondeur et de beauté d’animation.
    wickette posted the 03/17/2026 at 07:15 PM
    51love
    Sauf que le CGI de l'époque était (est toujours) ultra déterministe, la machine faisait exactement ce que tu voulais, tu controlais ton outil de A à Z.

    Ici tu es face à un outil qui "remplace" ta contribution par quelque chose de déjà render

    Artiste CGI/3D tu m'accorderas, c'est tout un métier
    kratoszeus posted the 03/17/2026 at 07:15 PM
    La techno est impressionnante mais comment en 6 mois les ingénieurs de nvidia comptent ils optimisés ce nouveau model pour tourner sur des 5060 ? lol la démo tournait sur un sli de 5090... faudra attendre de voir ce que a vaut sur des CG à la porté de tous.. et quand tu vois les stats steams cela concernera meme pas 1% des joueurs.. lol
    51love posted the 03/17/2026 at 08:09 PM
    kratoszeus c'est pas parce que Nvidia a utilisé le top du top pour sa démo, ce qui est logique, qui nécessitait donc 2 GPU distincts en l'état que ça ne fonctionne bien qu'avec.


    En fait pour le moment on a aucune idée des performances si je dis pas de bêtises, donc est ce un gouffre ou non je sais.

    S'ils avaient dit "on a besoin de cette puissance de calcul pour le DLSS5" a l'heure actuelle pr le faire fonctionner je t'aurais dit oui ça va être compliqué à optimiser.

    wickette je suis pas tout à fait d'accord parce que le but du DLSS est justement d'être hyper déterministe, sinon comment ferait il pour être aussi stable image après image ?

    Et justement il excelle en la matière.

    Donc a partir du moment où tu sais exactement quel sera le rendu du visage de ton personnage passé à la moulinette du DLSS, bah tu obtiendras un rendu visuel inatteignable avec la technologie actuelle, qui se rapprochera d'autant plus du rendu CGI initialement souhaité, ou est le problème ?

    En fait, il n'y a plus de problème, la seule chose c'est qu'il faudra garantir la stabilité du model entraîné, parce qu'avec du DLSS override, si tu peux changer le model par erreur tu pourrais obtenir un résultat un peu différent et ça serait potentiellement problématique ^^

    pimoody oui après c'est ton avis, c'est respectable, même si je le partage certainement pas entièrement.
    wickette posted the 03/17/2026 at 08:33 PM
    51love
    Le problème ici est que le modèle DLSS et les datasets utilisés lors de son entrainement sont chez Nvidia et c'est eux qui vont 'monopoliser' le "output" de ton rendu, alors certes tu as des paramètres (contrastes etc) mais le fait est que le design devient centralisé dans un llm externe au studio.

    A moins que les studios pourront fournir leurs propres datasets d'entrainements, je ne vois pas comment c'est aussi deterministe que le CGI. Tu rentres tes paramètres et tu ne contrôles pas vraiment ce qui en sort, les versions de DLSS sortiront et ton rendu entres 2 périodes données ne sera plus vraiment le même, car tu ne contrôle pas l'essence du neural rendering: le modèle et ses data d'entrainements, les mises à jour, la direction prise pour modifier le modèle etc

    C'est la grosse différence ici: Le contrôle, un LLM c'est très couteux à entrainer et c'est tout un métier (plutôt une armée de métiers)
    51love posted the 03/17/2026 at 09:54 PM
    wickette Oui, je crois que depuis le DLSS 2, il n'y a plus besoin d'entraîner les modèles jeu à jeu. Cela a été simplifié et centralisé chez Nvidia, et ça fonctionne très bien comme ça.

    Pour moi, la clé, c'est vraiment la modularité et la définition du contexte pour éviter le manque de contrôle et un rendu générique.

    Le modèle dans son ensemble est fourni par Nvidia et le restera, mais c'est pas nécessairement un problème.

    Comment je vois les choses dans le futur alors?

    Le modèle va s'orienter vers la fin d'un gros bloc monolithique si c'est pas déjà le cas, en s'approchant d'une approche comme le Mixture of Experts dont tu as peut être entendu parlé?

    https://huggingface.co/blog/moe

    Je me demande d'ailleurs si DLSS Transformer est pas passé en MoE, je me souviens pas avoir lu l'info.

    Bref, tu pourrais imaginer avoir la possibilité de greffer ton propre module, qui a été entraîné avec tes propres CGI, shaders, etc. Une partie de cette spécialisation, du contexte, pourrait même être injectée / compilée au runtime si besoin. Lors du démarrage, un peu comme les shaders sur PC il est chargé afin de réorienter ton jeu vers tes propres experts maisons pour le rendu.

    Et la tu rends le modele Nvidia ultra déterministe et personnalisable

    Tu parles de LLM, à mon boulot on vient d'avoir une licence pour claude.ai. Pour te donner une idée, le repo git qui contient le cœur de notre projet (sans toutes les fonctionnalités modulaires ajoutées via plugins), fait à lui tout seul 4+ millions de lignes de code.

    Donner du contexte est ultra important si l'on veut qu'il n'analyse pas tout le repos à chaque requête
    51love posted the 03/17/2026 at 10:07 PM
    licran posted the 03/18/2026 at 06:17 AM
    Le gros problème c'est l'optimisation. Cela reste un outil c'est les devs qui vont décider il va améliorer quoi dans leur jeu si ils tiennent à minima à leur direction artistique. Par contre le problème d'optimisation en est vraiment un. Certains vont être tenté de diminuer l'effort dans l'optimisation, ce qui va pousser encore plus cette course à la carte graphique.

    RE requiem est une master classe d'opti par exemple, le jeu tourne sur de vieille carte graphique tout en gardant la cohérence graphique du jeu.
    Il aurait pu se faciliter la tache à faisant tourner le jeu que sur console et les pc les plus puissant en activant un bouton pour optimiser le tout.
    Quel studio va continuer à faire comme eux?
    pimoody posted the 03/18/2026 at 08:35 AM
    51love pas de soucis, je partage ma juste perception des choses, depuis mon point de vue.