Leaks de bench de la RX 6800XT : ( N'est pas le top gamme : Concurrence la 3080 )
10 jeux présentés lors de la conférence : En 1440p, et en 4K.
En 4k, sur la moyenne de l'ensemble des jeux, la 6800XT arrive à 90fps.
La 6800XT gagne sur 5 jeux, égalise sur 2 autres, perd sur 3 derniers comparé à la 3080.
En 1440p, comme suspecté, RNDA 2 est plus consistant que son concurrent sur les plus petites résolutions, grâce à ses fréquences hautes et son moindre intérêt aux performances de computing.
Ainsi, la RX 6800XT gagne sur 8 des mêmes 10 jeux présentés, et perd sur 2.
En real time raytracing, la 6800XT semble perdre constamment, avec des performances plus semblable à la 2080Ti.
[A prendre avec beaucoup de pincette] AMD Radeon pourrait avoir un concurrent du DLSS via une update de drivers en décembre ou début 2021. Il pourrait être apparemment moins bon que DLSS 2.0 en terme de qualité d'image mais plus performant.
Comme à chaque lancement de nouvelles générations, AMD ne sait lui même pas encore les prix qu'ils vont mettre : Cela sera probablement décidé à la minute.
Ils ont de meilleurs résultats qu'anticipés, donc les prix sont encore sujet à débats.
La date de lancement n'est pas encore non plus décidé. ( Les rumeurs parlait de d'early à mi-novembre, mais rien n'est certains sur le fait que ce soit toujours d'actualité. )
Concernant Nvidia
114K commande pour moins de 1000 livraison

tags :
posted the 10/24/2020 at 10:31 PM by
mrponey
Peut on espérer ce type de technos sur les dernières consoles next gen, elles meme en RDNA 2?
Si ils ont un équivalent au dlss c'est pas hyper important par rapport au fait que les cartes auraient des tensor cores et si oui pourquoi personne dont eux-mêmes en ont parlé ? Si elles pouvaient être livrées avec une suite d'IA ce serait énorme, mais peu de chance qu'ils soient dans ce délire.
Je suis finalement content de ne pas avoir pu trouver de 3080. Le refresh en catastrophe de Ampere pour 2021 se confirme de plus en plus avec l'annulation de la 3080 20Go et 3070Ti.
Dire que certains avaient leaké plus ou moins tout ça et je n'y croyais pas.
5120x2880 Selon les rumeurs ils auraient plutôt un algorithme de supersampling, sans que ce soit basé sur des cores dédiés.
segadream C'est ce que j'espère. Si leur solution n'utilise pas d'IA et n'a pas besoin d'un entraînement au préalable comme le DLSS, ça pourrait être dispo sur tous les jeux, ou en tout cas sur certaines api.
Faudrait déjà en trouver ahah
En plus je sais pas ce que valent les drivers amd aujourd'hui, mais à l'époque ou j'étais chez eux, mon dieu mais quel galère avec des petit bug à droit et à gauche sur plein de jeux :s.
Si les rumeurs sont vraies il était difficile d'attendre AMD au même niveau de perf en RT et DLSS.
Mais ils auraient le mérite de revenir sur le haut de gamme avec une vraie proposition.
Dans tous les cas c'est bénéfique pour les joueurs, je suis un peu moins sur de me prendre une 3080 du coup et ca va peut être faire réagir Nvidia qui enchaîne mauvaise presse depuis l'annonce d Ampère..
J'avais monté ma première bécanne sur du full AMD pour pas trop me ruiner, j'ai vite déchanté.
Intel/Nvidia depuis et aucun soucis hormis le portefeuille.
La question est surtout de savoir s'il y a des puces dédiés, comme sur les cartes NVidia. Sans puces, l'algorithme sera obligé d'aller piocher dans la puissance de rasterisation de la carte, ce qui calcule l'image 3D en gros, donc ça baisse la puissance et performance de la partie 3D pour rajouter du DLSS like. Aucun intérêt.
apollokami Selon les rumeurs ils auraient plutôt un algorithme de supersampling, sans que ce soit basé sur des cores dédiés.
Alors c'est plutôt pas terrible.
C'est ce que j'espère. Si leur solution n'utilise pas d'IA et n'a pas besoin d'un entraînement au préalable comme le DLSS, ça pourrait être dispo sur tous les jeux, ou en tout cas sur certaines api.
L'IA permet de mieux "reconstruire" l'image justement, c'est ce qui permet d'avoir une aussi bonne qualité.
Du AA sans IA, on connait cela depuis très longtemps le résultat est moyen et très consommateur.
monz666 Nan, c'est peut probable que AMD soit capable de faire mieux que NVidia, autant attendre des vrais faits plutôt quue des tests suur des cartes dont on ignore le nombre de cœurs activés et leur fréquence.
Vivement !
C'est terrible...
Je ne suis pas prêt de recevoir ma carte moi...
nyseko A priori ça parle de 2000 Mhz minimum
Sur ces titres là a priori les perfs d'une 3080 seraient inataquables.
Si t'as déjà la 3080 t'es un chanceux sinon si tu l'as pas encore le mieux maintenant est d'attendre quand même tous les détails des futurs GPU AMD.
Tu rêve pour une aussi grande différence de prix max 100€ de moins make my word.
mrponey Je vais suivre ton conseil, en plus top achat m'a envoyé la xc3 ultra gaming au lieu de la gaming classique
Et le fait que les nouvelles technologies dans leurs cartes graphiques puissent servir à améliorer les consoles Next-gen, étroitement liées.. semble très excitant!
la j'ai une 5600xt jvais surement la changer dans 4 ou 5 ans après moi jveux pas la toute dernière techno tant que jpeux faire tourner les jeux en medium high
il y avait tellement plein de bug à la con dans tous les jeux qui te gâchent ton expérience, des écrans des moniteurs dans Mass Effect 3 qui étaient des fonds verts à FFXIV où pendant plus d'un an il a fallut que je désactive le crossfire sinon j'avais des perf moins bonne, fabuleux Amd ^^;
5120x2880 Justement c’est pas vraiment la même chose pour le moment. Un récent brevet de Sony parlait d’une vraie technologie semblable au DLSS
Le Direct ML de Microsoft c'est comme le dlss (et ça existe depuis quatre mois, il s'agit pas d'un brevet et tout le monde y a accès, c'est open source), mais si ça repose sur du logiciel c'est même pas la peine de comparer.
Par ailleurs on peut faire de la reconstruction d'image sans ML, et l'utilisation de ML n'est pas gage de qualité, y'a qu'à voir le DLSS 1.0 qui était merdique.
Après je vois qu'il y a quelques fausses idées reçues sur le DLSS.
1 - Déjà le DLSS 2.0 n'a plus besoin d'être entrainé pour chaque jeu, c'est un algo généralisé de reconstruction d'image temporelle boosté à l'IA.
2 - Utiliser de l'IA c'est plus lent que ne pas utiliser d'IA.
3 - La reconstruction de l'image a besoin d'attendre que la frame soit complété par le gpu d'abord, donc soit ça coûte quelques millisecondes en plus dans la frame, soit ça rajoute une frame de latence pour être calculé en parallèle de la prochaine frame.
4 - On peut faire du DLSS sans utiliser les tensor cores, c'était le cas du DLSS 1.9 dans Control.
https://www.youtube.com/watch?v=tHkxPAXJVKA
D'ailleurs vu la différence de performance par rapport au DLSS 2.0 dans cette vidéo c'est que vraisemblablement Control n'utilise pas les tensor cores en parallèle du reste.
Concernant les performances du ray tracing il faut relativiser, Ampere est deux fois plus performant que Turing, mais concrètement ça ne se voit que dans deux jeux, Quake RTX et Minecraft en mode full path tracing. Pour les autres en mode hybride, quand on active le RT on perd 30% de perfs, comme avec Turing ça n'a pas bougé.
Enfin sur le prix n'espérez pas trop, déjà quand la 5700XT était sortie tout le monde espérait un tremblement de terre, au final ils s'étaient aligné juste en dessous des RTX 2000 c'était la douche froide. Ensuite c'est nvidia qui a baissé ses prix et obligé AMD à faire de même.
A la limite s'ils ont une concurrente à la 3090, là y'a moyen de casser les prix vu que son tarif est tellement abusé, mais pour le reste ça sera juste du 30$ de moins.
Si on a besoin des features du genre cuda, pas le choix c'est nvidia, mais pour le gaming c'est kif kif, pour moi le DLSS n'est pas un argument, la techno est bien mais si aucun jeu l'utilise ça sert à rien et actuellement y'a que 5 jeux compatibles et le futur s'annonce pas meilleur. Après si on arrive à trouver les RTX3000 aux prix où elles ont étés annoncés c'est tout à fait compétitif avec AMD (à part la 3090) donc bon.