Edward Liu de chez NVIDIA Applied Deep Learning Research démontre les derniers progrès effectués
sur la technologie Deep Learning Super Sampling (DLSS 2.0) qui sont tout simplement spectaculaires.
Rappelons que cette technologie utilise le deep learning et les Tensor cores des cartes graphiques RTX
pour la reconstruction d'image pour le rendu en temps réel tout en gardant un framerate élevé.
C'est juste dingue ce que Nvidia est en train de faire...
Avec cette techno, des GPU comme les 2060/2070 pourrait faire en DLSS aussi bien, même mieux, qu'une 2080ti en 4k natif...
J'ai fait un petit test sur ma machine sur Control et le résultat m'avait bluffé, c'etait mieux que le 4k natif sur pas mal d'aspects avec un FPS doublé (voire plus)...
Et surtout, tomsguide qui vient de faire un test qui va dans le même, vachement bien fichu, on peut zoomer sur les images et comparer facilement. Le résultat est troublant, le 4k natif est quasi systematiquement moins bon que le 1440p + DLSS.
Monz666 A voir ce que va proposer AMD comme solution pour contrer cette proposition, ils peuvent pas rester dans rien faire.
En l'etat, une config équipée de l'entrée de gamme RTX, la 2060, sorti 2 ans avant la mise en circulation des next gens fera peut etre mieux dans les comparos
51love AMD a aussi sa techno, ça s’appel RIS et c'est plus ou moins équivalent au DLSS, en vrai c'est pas nouveau sur PC ce genre de trucs (deux ans que ça existe).
vampireskiller Sur la Switch actuelle c'est foutu, mais sur une future Switch 2/Pro pour 2021-22 ça reste une possibilité, d'ailleurs DF en a fait une vidéo dessus il y a quelques semaines https://youtu.be/coOzBPGl-O8
Ok merci pour vos réponse je commence a comprendre du coup si la ps5 a ça aussi elle s en bas les coui... d être un poil moins puissante que la XSX vu que ca permettra d avoir une image tellement propre du on verra quasi pas de différence hors ray tracing bien sur
c'est insane, j'ai testé sur control en dlss 2.0 en 4k to 1080p c'est ouf il y a 0 différence avec du 4k natif mais mon jeu tourne en 60 fps + avec le rtx activé et tout en ultra
5120x2880 t'es pas le premier à me parler de RIS, mais non non non...
C'est pas du tout comparable, c'est un algo de sharpening, l'équivalent chez Nvidia s'appelle freestyle.
Vampireskiller bah Nvidia semble avoir integré une solution à base d'IA pour faire de l'upscale dans sa derniere shield. Je suis pas plus calé que ça, je doute que ça fonctionne aussi bien qu'avec les tensors core des GPU RTX.
Aiolia081 On va bien voir ce qu'ils vont proposer, Nvidia propose une solution désormais mature et basé sur des tensors cores. Pas sur qu'AMD ait fait la meme chose pour RDNA2, d'ailleurs ils en ont jamais parlé pour le moment donc...
Microsoft a peut etre pris le relai avec un truc maison. W&S
aiolia081 Le problème avec AMD c'est que c'est fait via les shaders comme sur la Radeon VII (à voir sur les gpu rdna comment c'est géré) au lieu de tensors cores dédiés qu'il y a sur les cartes RTX.
Donc pour le moment même si l'api DirectML reste une alternative au DLSS au niveau des performances on sera loin de la techno Nvidia, après à voir sur XSX.
leonr4 C'est dans Direct X, donc Microsoft si j'ai bien compris.
DirectML – Xbox Series X supports Machine Learning for games with DirectML, a component of DirectX. DirectML leverages unprecedented hardware performance in a console, benefiting from over 24 TFLOPS of 16-bit float performance and over 97 TOPS (trillion operations per second) of 4-bit integer performance on Xbox Series X. Machine Learning can improve a wide range of areas, such as making NPCs much smarter, providing vastly more lifelike animation, and greatly improving visual quality.
Vampireskiller en tout cas Nvidia vient d'ouvrir une porte prometteuse pour répondre aux problemes de perfs et de résolution des machines équipées des SoC Tegra.
Nintendo a pas intérêt à passer à côté de ça sur leur Switch 2...
Aiolia081 Trs curieux de voir ce qu'ils vont proposer, le fait qu'il n'y aura à priori pas de hardware dédié comme chez Nvidia pour ce genre de calcul, c'est un peu inquiétant pour les perfs, mais bon on verra bien.
Ce qui est fort avec le DLSS 2 c'est que ça coute quasi rien, bien moins que le DLSS 1, tout en etant au niveau du natif, ou meme mieux, alors qu'avant c'est bourré d'artefact en mouvement et flou...
51love Il me semble que c'est une puce dédié dans la Series X, mais je peux me tromper, j'en suis pas sur. Si ça pouvait aussi servir à l'IA des PNJ, moi je prend
NVidia sort les crocs et c'est bon pour AMD qui sort en ce moment les griffes, ça tire l'industrie par le haut et c'est du tout bon pour tous le monde.
aiolia081 J'espère que Microsoft a bien bossé sa solution, parce que Nvidia repose sur les tensors cores pour sa techno et c'est ce qui fait la différence et la rend efficace pour un résultat au top en RT.
leonr4 J'imagine, entre ça et la puce dédié au RT, je pense que l'on peut dormir sur nos deux oreilles avec la Series X et tous ces trucs qui bouffent de la ressources
A voir ce que va proposer AMD comme solution pour contrer cette proposition, ils peuvent pas rester dans rien faire.
En l'etat, une config équipée de l'entrée de gamme RTX, la 2060, sorti 2 ans avant la mise en circulation des next gens fera peut etre mieux dans les comparos
leonr4 Confiant parce qu'ils ont bossé leur sujet. On en parle pas assez, mais les équipes Surface qui sont derrière la One x et la Series X se sont des brutes
Bref vivement que l'on ait les jeux, les vrais, pas ceux qui font la jonction entre les gen.
Et je parle pour les deux constructeurs, ça va être beau, rien à voir avec cette gen qui n'a pas vraiment marqué un tournant technologiquement parlant.
Aiolia081 Dans tous les cas, pour le prix, les PS5 et Serie X seront de tres belles machines, Supersampling, RT ou pas.
Mais Nvidia, c'est vraiment bluffant ce qu'ils sont en train de faire avec leur GPU. Leur vision, personne n'avait vu venir le RT et le DLSS, ça fait des années qu'ils travaillent la dessus et ils sont en train d'imposer ça comme des game changer. Impressionnant... Chapeau.
Déjà que sur PC, AMD est en retard en terme de perf, alors si en plus Nvidia arrive à produire des images meilleures qu'AMD en consommant le cout d'une image 1440p contre une image 4K chez le concurrent, ça va etre une boucherie....
Et ça sera pas à notre avantage au niveau des prix des GPU...
J'espere qu'AMD prepare autre chose, le RIS ne tiendra jamais la comparaison face au DLSS (pas le DLSS 1!). C'est impossible.
aiolia081 C'est évident que la team qui est en charge de l'architecture et la conception des xbox depuis la XB1 S n'a plus rien à voir avec celle sous l'ère de don mattrick, perso je n'en doute pas une seconde qu'ils ont bien taffé leur truc ^^
51love Apres je ne parle que de consoles parce que c'est ce qui m’intéresse
Je pense que AMD va bénéficier de ces années de travail en commun avec Microsoft et Sony. Le monde du PC en bénéficiera aussi, en attendant NVIDIA s'est grave sortie les doigts du cul depuis quelques temps
Leonr4 C'est sur, mais idéalement, ce genre d'algo, ça se gere au niveau hardware et ça s'implemente à bas niveau comme le fait Nvidia.
Bien pour ça que le RIS d'AMD est un excellent sharpening, ils l'ont developpé en fonction de l'architecture de leur GPU, c'est optimisé AMD.
Et tout ce que fait Nvidia dernierement sur ces technos propiétaires aussi.
Ici Microsoft, c'est tres bien qu'il fasse quelque chose sur des API de plus haut niveau (ils pourront meme l'adapter facilement à des GPU d'autres marques si besoin), mais il faudrait que ce soit AMD qui le mette en place ce supersampling pour maximiser les performances.
Apres si les mecs de chez Microsoft font du bon taff, ils trouverons peut probablement des astuces, mais en l'etat j'ai de gros doute qu'ils puissent proposer quelque chose d'aussi mature et efficace que Nvidia.
51love Ah mais moi aussi je parles du bon vieux DLSS, faut bien comparer ce qu'on peut comparer. Sur Tomb Raider je trouve le RIS supérieur, surtout par rapport au DLSS.
5120x2880 mais ici, il est question de la mise a jour du DLSS, le 1 etait pas encore mature à l'époque.
Je l'avais testé et je voyais pas l'utilité du truc.
Aujourd'hui c'est different.
Leonr4 On voit pas les FPS en bilinear donc... mais si c'est pas bcp plus performant, aucun interet car visuellement ca apporte pas de nouveaux détails
mais en l'etat j'ai de gros doute qu'ils puissent proposer quelque chose d'aussi mature et efficace que Nvidia.
51love Sur consoles ça va être cool du moins pour la XSX c'est déjà un plus de l'avoir, après pour l'api direct ml en l'état je suis comme toi je ne pense pas que ça vaudra le DLSS de Nvidia qui est très avancé et reste beaucoup plus précis en plus d'être basé sur l'accélération hardware, mais wait and see.
51love Pourquoi parler d'AMD alors ? Ce sera jamais le DLSS 1 ou 2, ils feront une update du RIS et basta, c'est ça leur équivalent, même si mieux ou moins bien, suite au RIS et Freestyle tout le monde avait voulu enterrer le DLSS d'ailleurs, comme quoi.
5120x2880 Je parle d'AMD parcequ'ils sont leur concurrent sur PC et que j'espere qu'ils vont proposer quelque chose de similaire très rapidement.
Car ils peuvent updater autant qu'ils veulent le RIS, il n'y a pas de supersampling la dedans, faire une version 2, 3, 4, autant qu'ils veulent, techniquement parlant, c'est impossible qu'il s'approche du résultat du DLSS 2.0 qui lui, à une marge de progression beaucoup plus grande encore que l'IA sera entrainée.
Ce gars avec une RTX 2070 normal (pas la super) arrive à taper du 100fps en 4K avec ray tracing activé sur wolfenstein grace au dlss, c'est hallucinant et dire que ce n'est que le début pour Nvidia
C’est très impressionnant mais la démo s’appuie sur une basse résolution et la upscale en 1080p quid de cet effet sur une source en natif 4K en ultra ?
microsoft a déjà un équivalent fonctionnel, ils ont dit qu'ils ont investi beaucoup de blé en R&D pour aboutir à un résultat bluffant, ils vont bien sûr décliner la techno sur direct X (donc PC + xboxsx) mais ils ont surtout xcloud en tête pour lequel ce genre de techno ferait un bien fou à la qualité des jeux sans avoir besoin de bande passante supplémentaire
La course à la résolution n'a plus trop de sens avec de tels algorithmes de reconstruction de l'image.
D'ailleurs je suis curieux de voir ce que l'équipe de Cerny a préparé pour la PS5 dans ce domaine.
La PS4 pro était la première machine à avoir un hardware dédié pour le checkerboard rendering (et ID buffer). Ils ont sûrement pensé à quelque chose de plus élaboré pour la PS5. On sait que Cerny réserve encore des surprises cela en fait probablement partie.
raoh38 oui je ne m'attends pas à avoir l'équivalent dans les consoles mais vu ce que Sony a fait dans une simple PS4 pro, je serais vraiment très surpris qu'ils n'aient pas creusé davantage le sujet pour la PS5. Ils proposeront quelque chose d'intéressant à coup sûr.
Avec cette techno, des GPU comme les 2060/2070 pourrait faire en DLSS aussi bien, même mieux, qu'une 2080ti en 4k natif...
J'ai fait un petit test sur ma machine sur Control et le résultat m'avait bluffé, c'etait mieux que le 4k natif sur pas mal d'aspects avec un FPS doublé (voire plus)...
http://www.gamekyo.com/blog_article443310.html
Et surtout, tomsguide qui vient de faire un test qui va dans le même, vachement bien fichu, on peut zoomer sur les images et comparer facilement. Le résultat est troublant, le 4k natif est quasi systematiquement moins bon que le 1440p + DLSS.
https://www.tomsguide.fr/test-dlss-2-0-nvidia-fait-bondir-les-performances-et-ameliore-la-qualite-graphique-des-jeux/
En l'etat, une config équipée de l'entrée de gamme RTX, la 2060, sorti 2 ans avant la mise en circulation des next gens fera peut etre mieux dans les comparos
Vampireskiller Non il faut des Tensor Cores.
https://www.eurogamer.net/articles/digitalfoundry-2020-could-ai-upscaling-be-a-game-changer-for-next-gen-switch
C'est pas du tout comparable, c'est un algo de sharpening, l'équivalent chez Nvidia s'appelle freestyle.
Vampireskiller bah Nvidia semble avoir integré une solution à base d'IA pour faire de l'upscale dans sa derniere shield. Je suis pas plus calé que ça, je doute que ça fonctionne aussi bien qu'avec les tensors core des GPU RTX.
Aiolia081 On va bien voir ce qu'ils vont proposer, Nvidia propose une solution désormais mature et basé sur des tensors cores. Pas sur qu'AMD ait fait la meme chose pour RDNA2, d'ailleurs ils en ont jamais parlé pour le moment donc...
Microsoft a peut etre pris le relai avec un truc maison. W&S
Donc pour le moment même si l'api DirectML reste une alternative au DLSS au niveau des performances on sera loin de la techno Nvidia, après à voir sur XSX.
leonr4 C'est dans Direct X, donc Microsoft si j'ai bien compris.
DirectML – Xbox Series X supports Machine Learning for games with DirectML, a component of DirectX. DirectML leverages unprecedented hardware performance in a console, benefiting from over 24 TFLOPS of 16-bit float performance and over 97 TOPS (trillion operations per second) of 4-bit integer performance on Xbox Series X. Machine Learning can improve a wide range of areas, such as making NPCs much smarter, providing vastly more lifelike animation, and greatly improving visual quality.
Nintendo a pas intérêt à passer à côté de ça sur leur Switch 2...
Aiolia081 Trs curieux de voir ce qu'ils vont proposer, le fait qu'il n'y aura à priori pas de hardware dédié comme chez Nvidia pour ce genre de calcul, c'est un peu inquiétant pour les perfs, mais bon on verra bien.
Ce qui est fort avec le DLSS 2 c'est que ça coute quasi rien, bien moins que le DLSS 1, tout en etant au niveau du natif, ou meme mieux, alors qu'avant c'est bourré d'artefact en mouvement et flou...
NVidia sort les crocs et c'est bon pour AMD qui sort en ce moment les griffes, ça tire l'industrie par le haut et c'est du tout bon pour tous le monde.
D'ailleurs, regarde bien de pres, les comparos, QHD->4K RIS vs 4K natif....
Le RIS se fait peter.
un algo de sharpening, même tres performant comme le RIS, ne fera jamais mieux que du natif, alors que du supersampling si.
Ici la promesse du DLSS c'est de pouvoir faire mieux qu'une image native en consommant a peine plus qu'une résolution inferieure.
Le sharpening et le supersampling sont incromparables.
En l'etat, une config équipée de l'entrée de gamme RTX, la 2060, sorti 2 ans avant la mise en circulation des next gens fera peut etre mieux dans les comparos
Je ne regrette absolument pas ma 2070
Bref vivement que l'on ait les jeux, les vrais, pas ceux qui font la jonction entre les gen.
Et je parle pour les deux constructeurs, ça va être beau, rien à voir avec cette gen qui n'a pas vraiment marqué un tournant technologiquement parlant.
Mais Nvidia, c'est vraiment bluffant ce qu'ils sont en train de faire avec leur GPU. Leur vision, personne n'avait vu venir le RT et le DLSS, ça fait des années qu'ils travaillent la dessus et ils sont en train d'imposer ça comme des game changer. Impressionnant... Chapeau.
Déjà que sur PC, AMD est en retard en terme de perf, alors si en plus Nvidia arrive à produire des images meilleures qu'AMD en consommant le cout d'une image 1440p contre une image 4K chez le concurrent, ça va etre une boucherie....
Et ça sera pas à notre avantage au niveau des prix des GPU...
J'espere qu'AMD prepare autre chose, le RIS ne tiendra jamais la comparaison face au DLSS (pas le DLSS 1!). C'est impossible.
Je pense que AMD va bénéficier de ces années de travail en commun avec Microsoft et Sony. Le monde du PC en bénéficiera aussi, en attendant NVIDIA s'est grave sortie les doigts du cul depuis quelques temps
https://youtu.be/QjQm_wNrvVw?t=1649
Bien pour ça que le RIS d'AMD est un excellent sharpening, ils l'ont developpé en fonction de l'architecture de leur GPU, c'est optimisé AMD.
Et tout ce que fait Nvidia dernierement sur ces technos propiétaires aussi.
Ici Microsoft, c'est tres bien qu'il fasse quelque chose sur des API de plus haut niveau (ils pourront meme l'adapter facilement à des GPU d'autres marques si besoin), mais il faudrait que ce soit AMD qui le mette en place ce supersampling pour maximiser les performances.
Apres si les mecs de chez Microsoft font du bon taff, ils trouverons peut probablement des astuces, mais en l'etat j'ai de gros doute qu'ils puissent proposer quelque chose d'aussi mature et efficace que Nvidia.
Nous verrons bien.
Microsoft
Je l'avais testé et je voyais pas l'utilité du truc.
Aujourd'hui c'est different.
Leonr4 On voit pas les FPS en bilinear donc... mais si c'est pas bcp plus performant, aucun interet car visuellement ca apporte pas de nouveaux détails
51love Sur consoles ça va être cool du moins pour la XSX c'est déjà un plus de l'avoir, après pour l'api direct ml en l'état je suis comme toi je ne pense pas que ça vaudra le DLSS de Nvidia qui est très avancé et reste beaucoup plus précis en plus d'être basé sur l'accélération hardware, mais wait and see.
Car ils peuvent updater autant qu'ils veulent le RIS, il n'y a pas de supersampling la dedans, faire une version 2, 3, 4, autant qu'ils veulent, techniquement parlant, c'est impossible qu'il s'approche du résultat du DLSS 2.0 qui lui, à une marge de progression beaucoup plus grande encore que l'IA sera entrainée.
https://www.youtube.com/watch?v=5MEHY89vYI4
config : rtx 2080 ti + 16 go de Ram ddr4 2400 mhz + i5 9600k
4k natif avec ray tracing ultra on et tous en ultra 28 fps
4k natif même paramètre avec dlss 2.0 en 1080P 62 fps
c'est insane et tu n'as aucune foutu différence entre le natif et le dlss 2.0 niveau qualité image
c'est hyper impressionnant, Nvidia c'est cher mais putain ce sont des bruts
D'ailleurs je suis curieux de voir ce que l'équipe de Cerny a préparé pour la PS5 dans ce domaine.
La PS4 pro était la première machine à avoir un hardware dédié pour le checkerboard rendering (et ID buffer). Ils ont sûrement pensé à quelque chose de plus élaboré pour la PS5. On sait que Cerny réserve encore des surprises cela en fait probablement partie.
https://www.tomshardware.fr/amd-ne-croit-pas-au-dlss/