AMD annonce la Radeon RX 6800 XT, une carte graphique porte-étendard, qui viendra concurrencer la RTX 3080 de Nvidia ! C'est du très lourd, en 4K, comme en 1440p !
La carte disposera d'un mode "Rage", qui permettra de l'overclocker, et de proposer des performances encore plus impressionnantes (ici en 4K avec les graphismes au max).
Les nouvelles cartes graphiques d'AMD disposeront de "FidelityFX", qui promet des effets visuels optimisés et très réalistes. 35 jeux ont été annoncés comme prenant en charge cette fonctionnalité dont Far Cry 6, Godfall ou encore WoW Shadowlands.
La Radeon RX 6800 XT sortira le 18 novembre à 649 $. La 6800 sortira le même jour à 579 $.
Pour concurrencer la RTX 3090, AMD annonce la Radeon 6900 XT. Sortie le 8 décembre à 999$.
ils ont fait du gros boulot, les écarts de perf semblent encore se réduire avec NVidia, voire même disparaitre tellement ils ont fait progresser leur ratio perf/watt
Maintenant, faudra voir dans des bench independants les perfs, notamment contre le RT et le DLSS de Nvidia.
Leur approche est Full shaders cores + haute fréquence, cad que sur les petites résolutions ou sur les jeux sans DLSS ou RT, ils auront l'avantage.
L'approche de NVidia est de moins miser sur les shader cores justement, ce qui pourrait leur donner un avantage non négligeable sur le ray tracing et la reconstruction d'image.
sorasaiku s'ils ont des fournisseurs moins impactés par le covid, Nvidia va prendre cher oui mais ça fait plaisir de revoir AMD qui semble à nouveau offrir quelque chose de cohérent sur le haut de gamme.
marcus62 ils sont passé rapidement sur le RT et le Fidelity FX qui est un pseudo concurrent du DLSS déjà implementé dans Death Stranding que j'ai testé, mais en l'état le DLSS etait clairement au dessus sur les benchs que j'ai fait.
marcus62 Ouai c'est mauvais signe si il en parle pas pour le RT et un équivalent au DLSS. Chose intéressante maintenant pour avoir des perf supplémentaire il faut être full amd
Attention, dans de nombreux graphiques, ils activent leur "smart access memory" qui n'est possible qu'avec les derniers processeurs Zen 3. Ça leur permet d'avoir de plus jolis graphes, notamment dans la dernière image de cet article. Ils sont aussi très discrets sur le RTX et leur alternative au DLSS.
Attendons les tests. AMD rattrape son retard, mais le diable se cache dans les détails.
ThauvinhoMarcus62Mrponey Jusqu'à 20fps de plus en faveur de Nvidia quand le RT est activé d'après les benchs de igorslab, je comprends pourquoi ils communiquent pas dessus.
5120x2880 Ok interessant.. Après peut-être que les jeux sont tout simplement pas encore adapté à ce ray tracing ? J'imagine que çà mérite une adaptation.
Thauvinho Je sais pas trop, Nvidia ça fait longtemps qu'il touche au RT et a même mis ce nom dans les cartes, alors que pour AMD c'est le premier jet donc si c'est médiocre en comparaison ça peut se comprendre.
Si t'ajoute le DLSS 2 (ou le 3 prochainement) au RT ça peut créer un gouffre, sachant qu'en puissance brute ils sont souvent devant (Phenom, Vega64) mais une fois en jeu il y a plus rien de comparable.
les leaks de ces derniers mois etaient donc vraies.
marcus62 pas de RT cores ou tensor cores chez AMD, la philosophie est completement differente.
Disons que pour le moment, ça leur permet d’être au moins au niveau de Nvidia si les jeux n'utilisent pas ces cores specifiques, et ils son encore rares, mais sur le long terme ils devront probablement revoir leur architecture...
Nvidia de part son architecture est plus portée sur l'avenir, AMD lui prefere combler son retard sur son ratio perf/watt et ils l'ont fait de tres belle maniere.
En gros :
- sans RT : 6800xt = 3080
- avec RT : 6800xt = 3070
mais quid du DLSS qui peut jusqu'a doubler les perfs des GPU Nvidia?
ça serait quand meme con qu'avec le DLSS + RT une 2080 fasse aussi bien que le flagship AMD...
AMD propose aussi son infinity cache, visiblement propre aux GPU PC car je n'ai rien vu de tel sur console, mais bon certaines optimisations materielles coutent un bras donc rien d'étonnant et ça permet d'optimiser grandement la bande passante.
Entre ça et les 16go de VRAM, ils font fort sur la mémoire en tout cas
5120x2880 bah oui, sur console c'est la meme archi RDNA 2, il y a juste l'infinity cache en moins, et accessoirement 2 fois moins de CU (36 contre 72) sur PS5.
Apres, peut etre que dans chaque CU ils ont faits des modifs d'architectures pour optimiser les calculs de RT tout de meme. Mais ça passera par les shader cores visiblement, contrairement à NVidia qui va pas oublier de se vanter de tous les types de cores et leur nombre dans chacun de leurs GPU.
On est bien d'accord que le combo RT / DLSS offre pour le moment, un avantage non négligeable à Nvidia et à ses RTX 3000 par rapport à AMD et ses RX 6000.
Les cartes ont l'air très prometteuses en terme de performance pure avec leur système full amd et le fait d'avoir 16go de vram.
En revanche je trouve leur position tarifaire assez étrange:
- Elle semble très pertinente sur la 6900XT qui se rapprocherai d'une 3090
- Assez proche pour la 6800XT en comparaison de la 3080
- Trop cher pour la 6800 en comparaison d'une 3070
De plus quid des performances ingame avec du RT activé, et selon le bench partagé par marcus62 elles seraient assez en retard sur ce sujet.
Pour la partie DLSS, leur solution de "Super resolution" ne serait pas pour tout de suite selon comptoir du hardware.
Franchement la 6900 XT me fait super envie surtout la déconvenue de la 3090 vu son tarif, mais le fait qu'elle n'ait pas le combo RT + DLSS de NVidia m'emmerde énormément...
osga le mode super resolution ne fait pas encore parti du fidelity fx que j'ai pu testé sur death stranding, mais je suis vite repasser sous le DLSS tellement c'etait incomparable.
Pour des perf similaires entre DLSS et Fidelity FX, le DLSS etait meilleur que le 4K natif, alors que le Fidelity FX le degradait bien.
Du coup, autant jouer dans une résolution inferieure native, ça revenait au meme, comme le DLSS avant l'arrivée de la 2.0 au final.
Aujourd'hui il y a eu enfin la preuve que seul la Xbox serie x est full RDNA 2, car le RDNA2 comprend le direct X 12 Ultimate avec ces 6 différentes technologies comme le variable shading... comme on peut voir sur une des photos publier par Xserial.
bennj je viserais la gamme du dessous, 3080 ou 6800xt mais oui en l'etat les features Nvidia font la difference, il n'est pas question que de puissance brute, le DLSS est le plus gros game changer de ces dernieres années.
Et avec Cyberpunk a nouveau retardé, je vais pas me presser pour canger mon GPU ^^
Mais si Nvidia chie vraiment sur les stocks, tant pis pour eux, la proposition haut de gamme AMD est de nouveau interessante ça fait vraiment plaisir
Ah il y a des rumeurs d'une RTX 3080 ti pour info, quasi au niveau d'une 3090 mais avec seulement 12GO de VRAM. Parfait pour le gaming
51love Ouai justement je pense que leur solution n'est pas encore au point pour avoir une comparaison pertinente avec le DLSS 2.0.
Il faudra attendre qu'ils améliorent leur système de rendu mais je ne pense pas que nvidia va laisser faire ça sans broncher et leur dlss 3.0 devrait leur assurer une certaine avance sur ce plan.
Après il ne faut pas oublier que amd travaille beaucoup avec microsoft et son directx 12 ultimate et donc que les techno d'amd soit bien plus utilisé que celle de nvidia (surtout avec les jeux produits par la firme de redmond, dont tous les nouveaux studios acheté dernièrement).
seul la Xbox serie x est full RDNA 2, car le RDNA2 comprend le direct X 12 Ultimate avec ces 6 différentes technologies comme le variable shading
RDNA 2 est une archi hardware, Direct X 12 U une API graphique de Microsoft.
AMD l'a visiblement utilisé, tout comme Nvidia l'a utilisé pour son DLSS uniquement compatible DX 12 je crois.
Rien n'empeche Sony de développer des technos similaires sur son API graphique (d'ailleurs il y a eu une brevet je crois de leur côté pour une sorte de DLSS).
Disons que c'est une contrainte qu'ils ont en plus car ils n'auront probablement pas aussi facilement un equivalent à la gamme fidelity fx sur leurs jeux.
Et ça sera certainement nettement moins bon que du DLSS car ils n'ont pas la possibilité de dev la technologie en meme temps que le hardware pour optimiser l'ensemble (c'est aussi vrai pour Microsoft).
51love De mémoire, le Fidelity FX CAS tourne à 75% de la résolution affichée et applique un algorithme de sharpening efficace.
Il ne peut pas rivaliser avec le DLSS 2.0 qui arrive à ajouter plus de détail mais à l'époque du 1.0, le sharpening d'AMD était bien au dessus par exemple.
Il faudra voir ce que donne leur nouvelle approche.
apollokami oui un algo de sharpening ne peut pas rivaliser avec du supersampling, aussi bon soit il. ça n'arrivera jamais.
Curieux de savoir qu'elle methode ils vont utiliser pour le 'super resolution', car l'IA est vraiment ce qu'il y a de plus efficace a ma connaissance, mais jusque là, c'était impossible de faire le traitement en tout juste 1 ms pour pouvoir l'appliquer dans le JV.
J'attendais l'annonce d'un GPU sous la barre des 500 euro et plus performant qu'une RTX 3070. Nvidia et AMD se concentrent en premier sur le marché haut et milieu de gamme, les petites bourses seront servies en dernier.
51love "Ah il y a des rumeurs d'une RTX 3080 ti pour info"
> Qu'ils livrent déjà les RTX 3080/3090 commandés ca sera déjà pas mal. T'as juste l'impression qu'ils n'étaient pas prêt et qu'ils ont juste voulu couper l'herbe sous le pieds d'AMD.
Encore une fois tout s'est passé exactement comme j'avais dit, je suis vraiment trop fort, je crois que je vais me reconvertir dans la voyance.
Dommage que personne n'ai osé tenir mon pari, j'aurais fait ban tous les septiques ici présents.
Sinon un peu déçu qu'il n'aient pas montré d'exemple probants des applications de leurs techno, sans doute que c'est pas assez reluisant.
Aussi s'ils ont vraiment une alternative de prévue au DLSS je comprends pas qu'ils ne l'aient même pas mentionnée, ces conférences sont très regardées c'est le moment parfait pour envoyer tout leur bullshit marketing comme le fait si habilement nvidia, pas très malin.
bennj Non désolé, l'avenir est sombre, je vois que les espoirs de vaccin seront déçus et on alternera entre déconfinement et reconfinement tous les six mois jusqu'en 2023.
Encore une fois tout s'est passé exactement comme j'avais dit, je suis vraiment trop fort, je crois que je vais me reconvertir dans la voyance.
Dommage que personne n'ai osé tenir mon pari, j'aurais fait ban tous les septiques ici présents.
Bien content de voir un AMD revenir dans la compétition et ça augure que du bon pour les joueurs, NVIDIA va devoir revoir encore un peu ses prix si AMD les concurrences vraiment dans toues les gammes. Attendons quand même les benchmark (pas ceux de AMD) et surtout leur technologie du RT et "DLSS".
marcus62 J'avais prédit que les bench qu'ils avaient montré lors de la conférence Ryzen n'étaient pas sur leur meilleure carte.
Que RDNA2 serait comparable ou plus économe en énergie qu'Ampère.
Qu'ils n'allaient sûrement pas sabrer les prix mais se positionner juste en dessous, à part pour la 3090 qui a un prix abusé.
Et j'avais des réponses du genre : https://i.imgur.com/xICwjGz.png
Vivement les tests indépendants!!!
Maintenant, attendons les benchmarks pour les comparer avec les RTX 3000.
Aucune comparaison en RT ? Quid d'un DLSS équivalent chez AMD ? (Je n'ai pas pu suivre la conférence
Attendons aussi les prix en français de ces nouvelles cartes.
Maintenant, faudra voir dans des bench independants les perfs, notamment contre le RT et le DLSS de Nvidia.
Leur approche est Full shaders cores + haute fréquence, cad que sur les petites résolutions ou sur les jeux sans DLSS ou RT, ils auront l'avantage.
L'approche de NVidia est de moins miser sur les shader cores justement, ce qui pourrait leur donner un avantage non négligeable sur le ray tracing et la reconstruction d'image.
sorasaiku s'ils ont des fournisseurs moins impactés par le covid, Nvidia va prendre cher oui
marcus62 ils sont passé rapidement sur le RT et le Fidelity FX qui est un pseudo concurrent du DLSS déjà implementé dans Death Stranding que j'ai testé, mais en l'état le DLSS etait clairement au dessus sur les benchs que j'ai fait.
Juste avec les Ryzen 5xxx par contre
Attendons les tests. AMD rattrape son retard, mais le diable se cache dans les détails.
Donc il y a plus qu'à attendre les benchmarks indépendants ! En 4K + RT notamment !
Du coup, pas d'équivalents aux RT cores et aux Tensor cores ?
mrponey : Je pense que c'est sans le DLSS.
weepangel : En effet
5120x2880 : Je comprends mieux aussi
Après je salue quand même AMD, ils ont fait de gros efforts pour rattraper Nvidia sur le segment du haut / très haut de gamme !
Enfin de la concurrence pour Nvidia sur ce segment !
Le lien pour les benchmarks RX 6800 XT / RTX 3080 avec le RT, ici
Effectivement, la RTX 3080 serait jusqu'à 22% plus performante que la RX 6800 XT en 4K / RT !
Sur le lien, on peut même voir qu'en 4K / RT, la RTX 2080 Ti est juste derrière la RX 6800 XT !
Toujours la course à un nouveau truc hahahah
marcus62 pas de RT cores ou tensor cores chez AMD, la philosophie est completement differente.
Disons que pour le moment, ça leur permet d’être au moins au niveau de Nvidia si les jeux n'utilisent pas ces cores specifiques, et ils son encore rares, mais sur le long terme ils devront probablement revoir leur architecture...
Nvidia de part son architecture est plus portée sur l'avenir, AMD lui prefere combler son retard sur son ratio perf/watt et ils l'ont fait de tres belle maniere.
En gros :
- sans RT : 6800xt = 3080
- avec RT : 6800xt = 3070
mais quid du DLSS qui peut jusqu'a doubler les perfs des GPU Nvidia?
ça serait quand meme con qu'avec le DLSS + RT une 2080 fasse aussi bien que le flagship AMD...
AMD propose aussi son infinity cache, visiblement propre aux GPU PC car je n'ai rien vu de tel sur console, mais bon certaines optimisations materielles coutent un bras donc rien d'étonnant et ça permet d'optimiser grandement la bande passante.
Entre ça et les 16go de VRAM, ils font fort sur la mémoire en tout cas
Apres, peut etre que dans chaque CU ils ont faits des modifs d'architectures pour optimiser les calculs de RT tout de meme. Mais ça passera par les shader cores visiblement, contrairement à NVidia qui va pas oublier de se vanter de tous les types de cores et leur nombre dans chacun de leurs GPU.
On est bien d'accord que le combo RT / DLSS offre pour le moment, un avantage non négligeable à Nvidia et à ses RTX 3000 par rapport à AMD et ses RX 6000.
En revanche je trouve leur position tarifaire assez étrange:
- Elle semble très pertinente sur la 6900XT qui se rapprocherai d'une 3090
- Assez proche pour la 6800XT en comparaison de la 3080
- Trop cher pour la 6800 en comparaison d'une 3070
De plus quid des performances ingame avec du RT activé, et selon le bench partagé par marcus62 elles seraient assez en retard sur ce sujet.
Pour la partie DLSS, leur solution de "Super resolution" ne serait pas pour tout de suite selon comptoir du hardware.
Pour des perf similaires entre DLSS et Fidelity FX, le DLSS etait meilleur que le 4K natif, alors que le Fidelity FX le degradait bien.
Du coup, autant jouer dans une résolution inferieure native, ça revenait au meme, comme le DLSS avant l'arrivée de la 2.0 au final.
Et avec Cyberpunk a nouveau retardé, je vais pas me presser pour canger mon GPU ^^
Mais si Nvidia chie vraiment sur les stocks, tant pis pour eux, la proposition haut de gamme AMD est de nouveau interessante ça fait vraiment plaisir
Ah il y a des rumeurs d'une RTX 3080 ti pour info, quasi au niveau d'une 3090 mais avec seulement 12GO de VRAM. Parfait pour le gaming
Il faudra attendre qu'ils améliorent leur système de rendu mais je ne pense pas que nvidia va laisser faire ça sans broncher et leur dlss 3.0 devrait leur assurer une certaine avance sur ce plan.
Après il ne faut pas oublier que amd travaille beaucoup avec microsoft et son directx 12 ultimate et donc que les techno d'amd soit bien plus utilisé que celle de nvidia (surtout avec les jeux produits par la firme de redmond, dont tous les nouveaux studios acheté dernièrement).
RDNA 2 est une archi hardware, Direct X 12 U une API graphique de Microsoft.
AMD l'a visiblement utilisé, tout comme Nvidia l'a utilisé pour son DLSS uniquement compatible DX 12 je crois.
Rien n'empeche Sony de développer des technos similaires sur son API graphique (d'ailleurs il y a eu une brevet je crois de leur côté pour une sorte de DLSS).
Disons que c'est une contrainte qu'ils ont en plus car ils n'auront probablement pas aussi facilement un equivalent à la gamme fidelity fx sur leurs jeux.
Et ça sera certainement nettement moins bon que du DLSS car ils n'ont pas la possibilité de dev la technologie en meme temps que le hardware pour optimiser l'ensemble (c'est aussi vrai pour Microsoft).
Il ne peut pas rivaliser avec le DLSS 2.0 qui arrive à ajouter plus de détail mais à l'époque du 1.0, le sharpening d'AMD était bien au dessus par exemple.
Il faudra voir ce que donne leur nouvelle approche.
Car seul le résultat à l'écran compte ! T'aurai beau me dire que la PS5 est RNDA1 et la XSX RNDA30 que ca changerait rien à ce que je dis juste avant?
Curieux de savoir qu'elle methode ils vont utiliser pour le 'super resolution', car l'IA est vraiment ce qu'il y a de plus efficace a ma connaissance, mais jusque là, c'était impossible de faire le traitement en tout juste 1 ms pour pouvoir l'appliquer dans le JV.
> Qu'ils livrent déjà les RTX 3080/3090 commandés ca sera déjà pas mal. T'as juste l'impression qu'ils n'étaient pas prêt et qu'ils ont juste voulu couper l'herbe sous le pieds d'AMD.
Dommage que personne n'ai osé tenir mon pari, j'aurais fait ban tous les septiques ici présents.
Sinon un peu déçu qu'il n'aient pas montré d'exemple probants des applications de leurs techno, sans doute que c'est pas assez reluisant.
Aussi s'ils ont vraiment une alternative de prévue au DLSS je comprends pas qu'ils ne l'aient même pas mentionnée, ces conférences sont très regardées c'est le moment parfait pour envoyer tout leur bullshit marketing comme le fait si habilement nvidia, pas très malin.
lamap
my god
Dommage que personne n'ai osé tenir mon pari, j'aurais fait ban tous les septiques ici présents.
Tu avais dit quoi ?
Que RDNA2 serait comparable ou plus économe en énergie qu'Ampère.
Qu'ils n'allaient sûrement pas sabrer les prix mais se positionner juste en dessous, à part pour la 3090 qui a un prix abusé.
Et j'avais des réponses du genre : https://i.imgur.com/xICwjGz.png