"Sur ma carte de visite, je suis un président d'entreprise. Dans mon esprit, je suis un développeur de jeux. Mais dans mon cœur, je suis un joueur..." Satoru Iwata (1959 - 2015)
profil
linkle
5
articles : 32
visites depuis l'ouverture : 66326
linkle > blog
    tags :
    2
    Qui a aimé ?
    aym, osiris
    publié le 15/09/2020 à 22:24 par linkle
    commentaires (23)
    chiotgamer publié le 15/09/2020 à 22:26
    À mon avis ça boufferait du calcul pour rien d'appliquer ça à un jeu.
    sunlightize publié le 15/09/2020 à 22:31
    Nvidia ne le fera pas car sinon, tu niquerais leur marché. T'as même plus besoin de changer de GPU pour avoir du 60 fps. Tu peux rester avec un GPU d'entré de gamme pour faire du 4K ultra 60 fps
    ravyxxs publié le 15/09/2020 à 22:33
    sunlightize Pas du tout. Renseigne toi sur toute les solutions que NVIDIA offre depuis dix ans pour augmenter les FPS à moindre couts ! NVIDIA auront toujours un marché car le PC c'est l'ensemble de milliers de config dont une optimisation souvent pas forcément parfaite par les studios.
    osiris publié le 15/09/2020 à 22:50
    C'est lourd si il arrive a appliquer ça sur du real time, si bien sur ça fait économisé des ressource!

    Par contre il dis que ça créait pas d'artefacts? mais c'est fait quand même un truc chelou quand les plans s'enchaînent...
    linkle publié le 15/09/2020 à 22:51
    chiotgamer Je pensais pareil du DLSS, et au final ça marche en 60 fps
    5120x2880 publié le 15/09/2020 à 23:33
    C'est pas nouveau, ça utilise les cuda cores (incompatible avec AMD), c'est pratique pour les gifs visiblement (pas la carte adéquate pour essayer), mais je préfère le rendu avec SVP d'après les tests, et qui en plus ne demande presque pas de ressources contrairement à DAIN. https://youtu.be/r7IVm9FtFtQ

    Osiris On peut le faire sans IA depuis 2015 en temps réel avec le programme SVP (SmoothVideo Project), ça donne pas beaucoup d'artefacts.
    chiotgamer publié le 16/09/2020 à 01:44
    Linkle Ok, après j'y connais rien.

    Mais là je viens de me dire un truc, c'est que rajouter des images par secondes en en créant avec un logiciel ça présuppose de connaître l'image qui va suivre, dans un film pas de problème le logiciel connaît le film avant toi mais un jeu vidéo les images dépendent de tes actions.
    linkle publié le 16/09/2020 à 03:57
    chiotgamer En vrai ils font déjà un peu de prédiction sur le project xCloud, même si je ne sais pas comment ça marche !
    chiotgamer publié le 16/09/2020 à 04:05
    Linkle T'façon vu la latence qu'il doit y avoir sur ce truc si jamais t'en rajoutais pour faire le traitement lol...
    osiris publié le 16/09/2020 à 05:54
    5120x2880 c'est pas le truc qu'utilise les tv et qui donnent un effets caméscopes dégueulasses ?
    potion2swag publié le 16/09/2020 à 08:05
    C'est fou n'empêche. On peut se demander de quoi seront capable les IA dans 50 ans. Ca me fait un peu penser à ça : https://www.youtube.com/watch?v=fo_eZuOTBNc&ab_channel=DenisShiryaev
    nsixtyfour publié le 16/09/2020 à 08:32
    Les tv font ca depuis 150 ans
    ratomuerto publié le 16/09/2020 à 10:39
    Nvidia vient d'acheter ARM pour 40 milliards.

    Il se trouve que ARM est notamment paré pour l'IA.
    5120x2880 publié le 16/09/2020 à 10:44
    Osiris SVP c'est sur PC, mais c'est exactement le même principe ouai (ou celui de l'IA, l'effet caméscopes est aussi dans la vidéo de l'article avec les legos, je dirais même qu'il est accentué, voir la vidéo de comparaison que j'ai mis pour plus d'infos).
    osiris publié le 16/09/2020 à 11:14
    5120x2880 la je sai pas si c'est la même chose mais sur les tv c'est horrible, mais la les lego (iA) ou l'anime je ressent rien mais je pense qu'il faudrait une comparaison du 30 vs 60 avec des vidéos plus réaliste et complexes car ce n'est pas naturel de base.

    La on vois bien l'effet donc je parle

    https://youtu.be/AUipoxcYtas
    5120x2880 publié le 16/09/2020 à 12:07
    Osiris Ouai c'est bon je vois le genre, pour avoir un résultat aussi faux sur SVP, il faudrait partir d'une vidéo avec très peu d'images par secondes.

    Film
    Anime
    osiris publié le 16/09/2020 à 12:26
    5120x2880 le résultat sur le filme est pas mal meme si ça fait l'effet Soap Opera par moment, je pense que ya du potentiel
    5120x2880 publié le 16/09/2020 à 12:37
    Osiris Oui quand t'as pas habitué à la fluidité ça fait drôle, comme dans les JV. Par contre une fois que t'es habitué et que tu matte une vidéo en 24fps t'as l'impression que ça rame.
    osiris publié le 16/09/2020 à 12:41
    5120x2880 oui passer de l'un a l'autre c'est choquant
    nigel publié le 16/09/2020 à 13:08
    linkle chiotgamer
    Cette tech ne marcherait pas dans un jeu pour plein de raison:

    - Comme dit plus haut c'est fait pour marcher avec une vidéo enregistrée puisque le principe est de créer des images supplémentaires entre les deux images donc il faudrait connaître à l'avance l'image que ton jeu va afficher plus tard

    - Ensuite, la tech présenté est un algorithme qui n'est pas forcément fait pour tourner au runtime dans un jeu, je l'ai pas testé mais je pense que c'est le genre de programme qui tourne pendant plusieurs minutes/heure pour te générer une nouvelle vidéo.

    - Contrairement à du cinéma, dans le jeu vidéo on génère une image en temps réel, donc ça donne énormement de contraintes mais aussi certains avantages, on a donc un contrôle supplémentaire sur ce qu'on peux générer, du coup finalement cette approche est un peu overkill.
    Au final, une idée similaire commence déjà a exister chez Microsoft: le VRS, on ne génère pas d'images supplémentaire entre deux, pour les raisons que j'ai expliqué, mais l'idée c'est que on ne génère que partiellement l'image suivante lorsque c'est possible
    chiotgamer publié le 16/09/2020 à 15:47
    Nigel Ouais genre on génère partiellement une image qu'on n'aurait pas généré sinon je suppose ? Genre au lieu de faire du 30 fps qu'avec des "bonnes" images on fait du 60 fps avec une image sur deux moins bonne ?
    nigel publié le 16/09/2020 à 17:34
    chiotgamer Mmh oui c'est un peu plus compliqué mais on est finalement capable de séléctionner quelle partie du jeu on veux générer en très haute résolution, et sur quelles parties la résolution va pas avoir un impact important.

    Par exemple, un ciel majoritairement bleu, ça ne sert peut-être à rien de lancer des shaders pour chaque pixel quand finalement la teinte va rester presque invisible à l'oeil nu. Pareil pour des objets très loin de la caméra, où alors par exemple des pixels affecté par le motionblur qu'on met de plus en plus dans les jeux, finalement ils n'ont pas besoin d'être hyper précis.
    chiotgamer publié le 16/09/2020 à 19:07
    Nigel Ouais je vois. C'est un peu ça sur les vidéo en ligne j'ai l'impression (t'as des genres de "plaques")