"Sur ma carte de visite, je suis un président d'entreprise. Dans mon esprit, je suis un développeur de jeux. Mais dans mon cœur, je suis un joueur..." Satoru Iwata (1959 - 2015)
Nvidia ne le fera pas car sinon, tu niquerais leur marché. T'as même plus besoin de changer de GPU pour avoir du 60 fps. Tu peux rester avec un GPU d'entré de gamme pour faire du 4K ultra 60 fps
sunlightize Pas du tout. Renseigne toi sur toute les solutions que NVIDIA offre depuis dix ans pour augmenter les FPS à moindre couts ! NVIDIA auront toujours un marché car le PC c'est l'ensemble de milliers de config dont une optimisation souvent pas forcément parfaite par les studios.
C'est pas nouveau, ça utilise les cuda cores (incompatible avec AMD), c'est pratique pour les gifs visiblement (pas la carte adéquate pour essayer), mais je préfère le rendu avec SVP d'après les tests, et qui en plus ne demande presque pas de ressources contrairement à DAIN. https://youtu.be/r7IVm9FtFtQ
Osiris On peut le faire sans IA depuis 2015 en temps réel avec le programme SVP (SmoothVideo Project), ça donne pas beaucoup d'artefacts.
Mais là je viens de me dire un truc, c'est que rajouter des images par secondes en en créant avec un logiciel ça présuppose de connaître l'image qui va suivre, dans un film pas de problème le logiciel connaît le film avant toi mais un jeu vidéo les images dépendent de tes actions.
Osiris SVP c'est sur PC, mais c'est exactement le même principe ouai (ou celui de l'IA, l'effet caméscopes est aussi dans la vidéo de l'article avec les legos, je dirais même qu'il est accentué, voir la vidéo de comparaison que j'ai mis pour plus d'infos).
5120x2880 la je sai pas si c'est la même chose mais sur les tv c'est horrible, mais la les lego (iA) ou l'anime je ressent rien mais je pense qu'il faudrait une comparaison du 30 vs 60 avec des vidéos plus réaliste et complexes car ce n'est pas naturel de base.
Osiris Oui quand t'as pas habitué à la fluidité ça fait drôle, comme dans les JV. Par contre une fois que t'es habitué et que tu matte une vidéo en 24fps t'as l'impression que ça rame.
linklechiotgamer
Cette tech ne marcherait pas dans un jeu pour plein de raison:
- Comme dit plus haut c'est fait pour marcher avec une vidéo enregistrée puisque le principe est de créer des images supplémentaires entre les deux images donc il faudrait connaître à l'avance l'image que ton jeu va afficher plus tard
- Ensuite, la tech présenté est un algorithme qui n'est pas forcément fait pour tourner au runtime dans un jeu, je l'ai pas testé mais je pense que c'est le genre de programme qui tourne pendant plusieurs minutes/heure pour te générer une nouvelle vidéo.
- Contrairement à du cinéma, dans le jeu vidéo on génère une image en temps réel, donc ça donne énormement de contraintes mais aussi certains avantages, on a donc un contrôle supplémentaire sur ce qu'on peux générer, du coup finalement cette approche est un peu overkill.
Au final, une idée similaire commence déjà a exister chez Microsoft: le VRS, on ne génère pas d'images supplémentaire entre deux, pour les raisons que j'ai expliqué, mais l'idée c'est que on ne génère que partiellement l'image suivante lorsque c'est possible
Nigel Ouais genre on génère partiellement une image qu'on n'aurait pas généré sinon je suppose ? Genre au lieu de faire du 30 fps qu'avec des "bonnes" images on fait du 60 fps avec une image sur deux moins bonne ?
chiotgamer Mmh oui c'est un peu plus compliqué mais on est finalement capable de séléctionner quelle partie du jeu on veux générer en très haute résolution, et sur quelles parties la résolution va pas avoir un impact important.
Par exemple, un ciel majoritairement bleu, ça ne sert peut-être à rien de lancer des shaders pour chaque pixel quand finalement la teinte va rester presque invisible à l'oeil nu. Pareil pour des objets très loin de la caméra, où alors par exemple des pixels affecté par le motionblur qu'on met de plus en plus dans les jeux, finalement ils n'ont pas besoin d'être hyper précis.
Par contre il dis que ça créait pas d'artefacts? mais c'est fait quand même un truc chelou quand les plans s'enchaînent...
Osiris On peut le faire sans IA depuis 2015 en temps réel avec le programme SVP (SmoothVideo Project), ça donne pas beaucoup d'artefacts.
Mais là je viens de me dire un truc, c'est que rajouter des images par secondes en en créant avec un logiciel ça présuppose de connaître l'image qui va suivre, dans un film pas de problème le logiciel connaît le film avant toi mais un jeu vidéo les images dépendent de tes actions.
Il se trouve que ARM est notamment paré pour l'IA.
La on vois bien l'effet donc je parle
https://youtu.be/AUipoxcYtas
Film
Anime
Cette tech ne marcherait pas dans un jeu pour plein de raison:
- Comme dit plus haut c'est fait pour marcher avec une vidéo enregistrée puisque le principe est de créer des images supplémentaires entre les deux images donc il faudrait connaître à l'avance l'image que ton jeu va afficher plus tard
- Ensuite, la tech présenté est un algorithme qui n'est pas forcément fait pour tourner au runtime dans un jeu, je l'ai pas testé mais je pense que c'est le genre de programme qui tourne pendant plusieurs minutes/heure pour te générer une nouvelle vidéo.
- Contrairement à du cinéma, dans le jeu vidéo on génère une image en temps réel, donc ça donne énormement de contraintes mais aussi certains avantages, on a donc un contrôle supplémentaire sur ce qu'on peux générer, du coup finalement cette approche est un peu overkill.
Au final, une idée similaire commence déjà a exister chez Microsoft: le VRS, on ne génère pas d'images supplémentaire entre deux, pour les raisons que j'ai expliqué, mais l'idée c'est que on ne génère que partiellement l'image suivante lorsque c'est possible
Par exemple, un ciel majoritairement bleu, ça ne sert peut-être à rien de lancer des shaders pour chaque pixel quand finalement la teinte va rester presque invisible à l'oeil nu. Pareil pour des objets très loin de la caméra, où alors par exemple des pixels affecté par le motionblur qu'on met de plus en plus dans les jeux, finalement ils n'ont pas besoin d'être hyper précis.