Aujourd'hui, ça parle beaucoup de SSD, de Ray Tracing, de TFLOPS non?
J'aimerais aborder un point important, l'utilisation de l'IA pour améliorer la qualité de l'image et qui va être aussi un vrai game changer dans les prochaines années en terme de performance.
Vous avez peut être déjà entendu parler de la technologie de Nvidia : le Deep Learning Super Sampling (DLSS).
Le deep learning, qu'est ce que c'est? comment ça fonctionne?
En gros tout part d'une IA, d'un réseau de neurones qui va devoir être entraîné (comme celui d'un être humain) afin d'apprendre. Apprendre quoi?
Dans le cas ici présent, ce que fait certainement Nvidia pour qu'il apprenne c'est d'utiliser des milliers/millions d'images en 16K + antialiasing et de lui dire :
"bon mon coco, je vais te filer seulement la version 1080p de l'image, à toi de recréer l'image 16K initiale le plus fidèlement possible. Et puis, après celle-ci, voici ma bibliothèque d'image"
Donc à partir d'images 1080p celle ci doit "deviner", recreer l'image finale qui elle est en 16k + anti aliasing.
Alors le réseau de neurone va faire des propositions aléatoires et se renforce à chaque itération au fur et à mesure que la marge d'erreur diminue (facile à déterminer quand il suffit de comparer l'image résultat de celle qui a été utilisé comme référence).
Il va apprendre a reconnaître des choses "simples" comme l'alphabet, des formes, éliminer l'aliasing des images, ou encore des "textures" (peau, oeil, bouche, mur, etc....) ou même des objets (par exemple il reconnaîtra un homme au loin et il sera capable de détaillé dans des résolutions supérieures ce qu'il comprend comme étant sa main).
Une fois qu'il a atteint une certaine maturité sur un très grand panels d'images différentes, on lui file de nouvelles images 1080p qu'il n'a pas eu l'occasion de voir durant son apprentissage et on lui demande de sortir des images résultats. Et la Bingo!
Nvidia a mis au point le DLSS avec la sortie de sa gamme RTX, mais cette première version etait plutot decevante :
- les images restait plus floues que du 4K natif
- en mouvement il y avait du bruit, perte de précision
- des performances mitigées
Bref, l’intérêt était limitée même si des patchs ont amélioré un peu l'ensemble.
Nvidia a continuer d’entraîner son IA dans son coin et sorti son DLSS 2.0 dont voici les avantages :
- générique (plus besoin de l’entraîner spécifiquement sur un jeu), devrait donc être massivement adopter dans les prochaines années
- amélioration du rendu (fini le bruit en mouvement, beaucoup plus net, plus juste dans ses predictions)
- amélioration des perfs, 2x fois moins impactant que le DLSS 1
Et ce n'est que le début, nul doute que l'IA continuera de s’améliorer dans les prochains mois.
Équipé de ma RTX2080, j'ai relancé Control pour en avoir le coeur net, l'un des premiers jeux compatibles, et même s'il est de base très mal optimisé, voici quelques résultats accompagnés des performances :
meilleure qualité ici :
https://imgur.com/gallery/gyVRCwW
1. 1440p = 74 FPS
2. DLSS Quality High (1440p) = 69 FPS
3. 4K = 29 FPS
1. 1440p = 74 FPS
2. DLSS Quality Medium ( 1252p) = 80 FPS
3. 4K = 30 FPS
En gros, sur ces 2 examples, le jeu calcule une image initiale dans une résolution 1080p, 1252p ou 1440p suivant le niveau de qualité sélectionnée dans les options, puis le réseau de neurone est configurée pour générer une image 4K.
On constate globalement que :
- l'image 1440p est la plus floue (bruit dans les cheveux, textes difficilement lisible, moins de detail dans les textures)
- l'image DLSS est sur certains aspects, plus nette, plus détaillée (texture de peau, mur, veste en cuire...) encore que l'image 4K
- Le DLSS Medium est 10% plus performance que le 1440p, quasi 3x plus performant que le 4K pour une image qualitativement similaire à cette derniere!
- Le DLSS High n'a un impact que de 3-5% en comparaison de l'image initiale en 1440p pour un rendu là aussi qualitativement comparable à du 4K, et même mieux sur certains aspects.
- pas d'aliasing en DLSS, l'entrainement sur des images 16K + antialiasing a fait le taff
La promesse ce coup-ci semble être parfaitement tenue, cela va ouvrir beaucoup de possibilité dans le futur pour que les GPU puissent atteindre de la 4K/ultra/Ray Tracing/60FPS,
chose encore très compliquée sans DLSS avec une RTX 2080 ti!
On peut imaginer aussi Nintendo bénéficier de cette technologie sur une Switch Pro / Switch 2 pour améliorer la qualité d'image de ses machines, des SOC comme les NVidia Tegra ne permettent pas d'atteindre des résolution élevées.
La balle est dans le camp d'AMD maintenant, qui va certainement mettre au point une IA similaire et la déployer sur ses futures architectures car déjà que leur GPU accusent du retard dans les benchs comparés à ceux de Nvidia... je vois pas comment ils pourront tenir sinon.
Je vous laisse deviner la suite...
Je préfère le ris de AMD plus que convaincant.
"Machine Learning peut améliorer un large éventail de domaines, tels que rendre les PNJ beaucoup plus intelligents, fournir une animation beaucoup plus réaliste, et améliorer considérablement la qualité visuelle."
du coup sa peut etre vraiment pas mal
Nous consoleux, on à le mClassic
Regarde le post de revans ça ne sert pas qu'à l'image...
Microsoft a implanter Direct ML dans sa séries X
"Machine Learning peut améliorer un large éventail de domaines, tels que rendre les PNJ beaucoup plus intelligents, fournir une animation beaucoup plus réaliste, et améliorer considérablement la qualité visuelle."
Biboys plus exaspérant que toi tu meurs.
T'es d'une lourdeur à forcer puerilement à longueur de journée avec AMD.
Le RIS n'a rien à voir avec de l IA. C'est un algo de sharpening...
sieu69 madd l'un n'empêche pas l'autre. Vous prêchez un convaincu je suis le premier à souhaiter des IA in game de haut niveaux...
C'est juste pas le sujet. Et pas de kikoo trololol svp, un peu de respect c'est possible ? La reconstruction d'image est un domaine intéressant.
revans ashern à voir comment Microsoft tirera parti de cette techno dans le futur
Même si Pour l'instant il y a que MS qui a communiqué sur ça.
Oui, l’AMD RIS est une bonne surprise. L’astuce est excellente dans son exécution, et la prise en compte des micro-contrastes de l’image semble bien payer pour offrir un résultat plus fin que la concurrence. C’est même assez bluffant, de voir comment AMD parvient à offrir une telle qualité sans dépenser des millions en recherche et développement. De quoi rappeler la fable du crayon à papier des astronautes soviétiques !
https://www.tomshardware.fr/test-comparatif-visuel-radeon-sharpening-nvidia-dlss/9
/>
regarde la conclusion ...
1. D'abord tu me sors un vieux comparatif avec le dlss 1. Je suis le premier à dire que c'est de la merde.
2. Ce n'est pas de l IA, ça ne permet pas de faire de la reconstruction d'image. Juste pour rappeler le but de cet article c'est hors sujet.
3. L'algorithme de sharpening d AMD est excellent et peu coûteux. Personne ne dira le contraire, l'équivalent chez Nvidia s'appelle freestyle et il est au moins aussi bon maintenant.
4. ce genre dalgo et il y en a des milliers montrent des limites. La promesse avec des IA de reconstruction d'image c'est de pouvoir offrir une qualité visuelle supérieur à du 4k natif à partir d'images bcp moins définies grâce à un apprentissage sur des images en 16k.
5. Avec du sharpening une image 2k sera jamais supérieur à son équivalente 4k natif
C'est pour ça que la Switch est partenaire avec eux, parce qu'ils possède celle pour l'ARM pour leur Shield.
Comme sur console pour déscendre les prix de vente ils doivent passer par des APU (CPU+GPU) Nvidia ne peut rien leur proposer
Après le DLSS, ça marche bien que depuis Woflenstein Youngblood (2ans plus tard on va dire).
Nvidia doit entrainer son IA sur de gros serveur pour implémenter ses nouvelles logiques sur RTX. Chose faite avec le 2.0 et là ça devient super
Sur certains aspects ça peut être mieux que du 4k natif et c'est déjà le cas sur control avec le dlss 2.0. Pas sur tout non plus.
à l'époque de la 1ere xbox les cartes graphiques étaient sur les cartes mère et Nvidia faisait des soc très intéressant pour pas cher.. c'est Intel qui a changé ça en se mettant à faire des APU avec la CG dans le die le processeur (et ainsi conforter son leadership dans la vente de CG..)