Comme le rapporte le
Taipei Times,
Yuanta Securities Investment Consulting Co a quelques informations sur les prochaines cartes graphiques
GeForce (nom de code Ampere) de
Nvidia. Selon la firme, l'architecture
Ampere
offrira des performances jusqu'à
50% supérieures à celles de Turing des RTX 2000, pour
une consommation électrique réduite de moitié.
L'architecture
Ampere sera la première chez les verts à sortir en
7nm, et contrairement à
AMD qui reste fidèle à
TSMC,
Nvidia va s'associer non seulement à
TSMC mais aussi à
Samsung (comme c'était le cas pour Pascal)
pour produire ses cartes graphiques en 7nm. Par conséquent, le stock ne devrait pas être une
préoccupation majeure pour la société de Santa Clara.
Le passage en 7 nm devrait permettre à
Nvidia des avancées intéressantes, la marque pourra intégrer plus de
Cuda Cores, plus de RT Cores et de Tensor Cores.
Selon
Yuanta,
AMD a toujours un "Big Navi" dans ses manches, mais si
Ampere offrira plus de 50% de puissance par rapport à Turing et une consommation divisée par deux, la Red Team va avoir un gros problème sur les bras.
Comme ils l'ont fait pour Turing en 2018,
Nvidia dévoilera probablement ses cartes
RTX 3000
à la conférence annuelle
SIGGRAPH, qui se tient en août.
La guerre des prix est le plus important et les rouges sont plus intéressants pour ça. La RX 5700 XT est une superbe carte et quel bonheur de la retrouver sous une autre forme dans les prochaines consoles.
puissance entre une xbox one et ps4 avec des quelques effets RT
Espérons que cela donne des idées à certains
Si Nintendo ne fait pas le radin pour sa prochaine console, Nvidia pourrait alors nous pondre un véritable monstre pour la Switch 2.
Du coup la rtx 3080 ti devrait passé les 20 teraflops et surtout optimiser leurs rt.
Apparemment pour une full scène Ray tracing il faut environ 25go ray/s
La serie RTX 3000 a l'air ouf, mais bon on va parler chinois devant les prix annoncés c'est certain
Par contre sur la partie gpu Nvidia sont toujours au dessus, rien que sur le software on voit la différence, les drivers de GPU d'AMD puent la mort et ne parlons même pas des performances/efficacité énergétique ou Nvidia a pris une avance considérable depuis quelques générations.
et sinon ,ils pensent un jour dédié quelques chose à l' IA
Tu fais erreur en te focalisant sur le HDG qui concerne 0,8% des utilisateurs de steam.
Je ne suis pas un pro-AMD ou radeon j'ai plus de cartes des verts mais faut arrêter deux minutes avec les arguments qui datent de Raffarin..
Par contre, ce qu'il dit et il a entièrement raison, c'est que sur le domaine de l'efficacité énergétique, Nvidia est toujours devant et c'est inquietant.
Une RX 5700 XT est en gros aussi energivore (voire plus) qu'une RTX 2080 alors que sur 90% des jeux, elle est assez nettement en retrait en terme de perf.
En sachant que Nvidia est encore sur du 12nm et que le passage au 7nm va leur permettre de faire un bon énorme sur l'efficacité énergétique de leur architecture Ampere... (c'est le sujet de cet article)
AMD doit vite progresser sinon ils vont se contenter à nouveau de sortir au mieux du GPU milieu de gamme, qui chauffe et consomme trop comme il y a peu et laisser Nvidia sans réelle concurrence sur le haut de gamme
Nvidia s'est gardé sous le coude le plus longtemps possible son archi 7nm pour l'arrivée des Next Gen, et j'ai bien peur qu'ils vont faire très très mal à AMD dans quelques trimestres...
"Je suis... Ampere."
Je ne crache pas sur AMD au contraire ils ajoutent de la compétitivité face à intel et Nvidia...ENFIN, perso si je venais à faire une tour le cou serait un AMD 7nm sans hésiter + Nvidia
Signe que le jeu de la concurrence se fait bien en ce moment
- L'IHS soudé, t'aura pas à l'ouvrir après une paire d'année et ça chauffe moins (7700K c'était un an après).
- Un TDP de 65W + IHS soudé > le silence, la conso.
- Le double de threads.
- Moins cher.
- Tout ce que la nouvelle génération apporte, PCI 4, BT 5, Wifi 6, carte mère haut de gamme avec backplate pas si cher que ça (Aorus Pro Wifi).
Tu vas taper quelques fps en plus (The Witcher 3, 156fps contre 151) qui seront largement contrebalancés par une carte Nvidia et te faire défoncer en applicatif pour un prix supérieur. Ce que la carte Nvidia apporte :
- TDP moindre.
- Streaming sans perte de perfs (nvenc), tout ce qui est encodage, cuda, EVGA et la garantie 10 ans...
- Moins cher à perfs égales même si la carte est un peu moins puissante, drivers, optimisations.
l'IHS soudé franchement OSEF on est pas là pour garder le matos 8 ans et le 7700k c'était exceptionnel un minimum de renseignement permettait de savoir que le 6700k moins cher était plus intéressant.
Moins cher c'est en fait totalement faux le 3700x vaut certes 50 euros de moins sauf que la carte mère aorus pro dont tu me parles vaut 100 euros de plus que la référence perf/prix en overcloking en Z390 son homologue Z390 aorus pro
Tu vas taper quelques fps en plus (The Witcher 3, 156fps contre 151) Encore une fois non la preuve
et te faire défoncer en applicatif Sincèrement la personne qui regarde les tests de décompression de winrar dans les tests de processeur ce n'est pas moi
- TDP moindre. 30 watts sur ton alimentation de 700 watts 80+ titanium..
- Streaming sans perte de perfs (nvenc) Je ne suis pas youtubeur comme 97% de la population
EVGA et la garantie 10 ans... Alors ça... comment te dire.. tu fais surement partie de ces gens qui depuis 10 ans sur les forums francophone te parle de cette fameuse garantie.. sauf qu'on est pas aux states.. le support d'evga est en anglais ou allemand et tous les frais d'envois vers l'allemagne sont à ta charge (et c'est pas le prix d'un collissimo compte 35/40 euros) pour une prise en charge non garantie à 100% (fais juste un essai avec le numéro de téléphone tu vas voir c'est drôle) c'est complètement honteux l'image de marque qui a été véhiculé avec EVGA sur une expérience qui ne se compare pas avec EVGA Europe, pour moi la marque est bannie.. d'ailleurs en parlant d'EVGA avec son dissipateur ICX inférieur en dissipation thermique par rapport aux nuisances sonores d'une sapphire nitro + (et dont la politique tarifaire n'est pas la même ce qui ne t'échappera pas) j'espère que tu fais la comparaison sur la 2070 SUPER (et pas la normale qui pour exactement le même prix que la 5700 XT a du prématurément finir sa carrière à cause de la sortie de celle-ci)
Donc en résumé tu me parles de moins cher avec :
- Un processeur à 50 euros de moins
- mais une carte mère à 100 euros de plus avec son ventilo qui génère une nuisance sonore
- et une evga 2070 super à 574 euros au moins cher sur amazon (et encore on part sur l'idée du modèle de base la black gaming) qui coute donc 114 euros de plus qu'une sapphire RX 5700 XT nitro +
Donc un surcoût de 164 euros ! Sachant que la carte graphique se change bien évidemment avant le processeur sur un PC (pour pourquoi pas une nvidia à l'avenir que sais-je..)
Non définitivement..
Si tu trouve ma carte mère chéros t'en prend une autre mais dire que ça rend le processeur plus cher c'est du délire. La carte dont je parles coûte 40€ plus cher qu'une vieille merde périmée (200€ en 2020 dans du pci 3.0 faut vraiment être malade, c'est elle qui est trop cher pour ce qu'elle est, même pas de backplate cette chiasse, rien que ça ça équilibre le prix), il est pas question de 100€ de plus, c'est 240 sur Amazon.
La preuve ? J'ouvre ta vidéo et je vois ça, putain j'étais pas loin https://i.imgur.com/S6S5Tk0.png
Tu peux pas être sain d'esprit et utiliser winrar, je pensais plutôt à Premiere (surtout couplé à une carte Nvidia, tu fais pas que streamer avec, mais peut-être que tu devrais t'y mettre si tu veux récupérer ton surcoût imaginaire).
Pour EVGA tu t'es pas demandé si je faisais parti de ceux qui en ont profité ? Bien sur qu'elle est valable pour l'Europe et je suis pas un yankli je met un waterblock sur mes cartes donc pour le bruit on repassera, toi t'es pas youtubeur et moi je suis pas client du black edition triple twin rgb, d'ailleurs elle reste garantie même si tu la démonte.
Le ventilateur du chipset est semi-passif et même à fond les ballons c'est pas comparable avec ton 9700K qui tape 20°C de trop même pas OC.
J'ai pas compris ton lien avec The Witcher, ouai le framerate est supérieur sur la 2070S, qui en doute ? C'est de ça dont je parlais quand je disais que ce serait contrebalancé, au niveau de la conso tu sera même gagnant lel.
https://i.imgur.com/S6S5Tk0.png contrebalancé par ça https://i.imgur.com/GCTWC8K.png
Entre le surcoût de la marque EVGA, le sûrcout des GeForce, le surcoût du waterblock arrête d’oser parler de rapport perf/prix pour de ttes façons overclocker comme un porc pour le débat de la conso..
Ça c’est comme faire le screen d’une variable d’un benchmark dans l’instantané sur le chiffre qui arrange surtout qu’au final selon les jeux le ryzen se prends 10 à 30 fps dans la gueule selon le moteur utilisé, soit un delta qui coûte pas 50 euros entre deux cartes graphiques..
Au lieu de parler de ton EDF commence plutôt à calculer le nombre de kilowatts/heures de tout tes équipements et de ce que tu y gagnerai selon le fournisseur
Comme avec zen 1,2 (meilleurs sur les applis et presque identique sur le gaming) et le 3 qui arrive (superieur en tout ) ils grapilleront sur l'écart.
Apres le but est d'être compétitif sur les cartes entrée et milieu de gamme la ou les ventes se font le plus, et sur les apu qui intègrent les appareils portables et surtout les consoles pour eux. Sans oublier les servers gaming des services google ,Microsoft ect…
Je ne doute pas que nvidia va proposer encore du lourd mais a quel prix et dans quels segments entrée , moyen et haut de gamme voir très haut de gamme ?
Enfin il faut faire attention a se que l’on lit sur les différents forums, se n'est pas 50 % de puissance supplémentaire ET 50 % de consommation en moins mais plutôt comparativement a turing avec la nouvelle gravure tu auras soit 50 % de perf en plus OU 50 % de consommation en moins mais pas les deux.Donc au final il y aura forcement un mix des deux du type 25 /25 par exemple se qui est un gros gap déjà.
Hmm la seule optimisation qu'il y a, c'est que comme la carte graphique est toujours la même, il n'y a pas d'étape "d'adaptation" des données graphiques en fonction de la marque de la carte ainsi que de son modèle.
C'est sûr que cela consomme des ressources mais je pense qu'en terme de pourcentage de ressources nécessaires désormais, ça doit être très très très faible et donc pas si significatif que cela.
Par contre le denuvo (qui n'est pas toujours cracké day one contrairement à ce que certains pseudo connaisseurs affirmaient il fût un temps) est clairement un plaît.
Mais c'est surtout les SDK des consoles ici qui sont très optimisés et qui proposent des fonctions très bas niveaux pour optimiser jusqu'au bout les consoles, les jeux étant pour la plupart en développement lead console, puis porté sur PC, ca n'arrange rien.
Sur un PC t'as pas ce niveau encore.
Et c'est vrai que les custom sur les apu sont quelques choses que les gens oublient et font trop souvent reference a un modele de gpu pc se qui est faux.
On voit bien des augmentations de performance sur PC pour certains jeux lors de la mise à jour de drivers, l'optimisation existe clairement, mais c'est très loin d'être le jour et la nuit, on gagne quelques FPS.
Le rôle fondamental d'un GPU, c'est le traitement de donnée, de créer une image par rastérisation à partir d'informations 3D.
Une carte capable de générer 1.8TFlops ne va pas se transformer en 3TFlops magiquement via une optimisation magique.
Le principe reste le même partout, on envoi les assets 3D, les textures et le GPU créé l'image.
La ou il y a un gain, c'est dans le fait que les jeux PC doivent s'interfacer avec plusieurs matériels différents et doivent donc procéder à une étape préliminaire de présentation des données (si c'est une carte AMD, je dois les envoyer comme ça, si c'est une carte NVidia, je dois les envoyer comme ça) et tout ça, ça prend du temps machine, un peu. MAis de moins en moins.
En conclusion, je ne crois pas que l'overhead de consommation de ressources soit proportionnel avec le temps (10% en 2013, 10% en 2020).
Après je suis preneur d'une discussion plus technique avec des exemples concrets pour mieux comprendre. Surtout concernant la rastérisation dans le GPU, pour moi, c'est la même chose entre un GPU de console et un GPU de PC, ce sont des formules de mathématiques qui sont câblés dedans, le principe reste le même et que ce soit une console ne change absolument rien à la capacité de processing de la puce.
Non la seule vrai optimisation, c'est la capacité à envoyer plus rapidement et efficacement les données dans la puce, et la seule différence à ce niveau, c'est que sur console tu n'as pas de préparation à faire car c'est toujours le même GPU alors que sur PC tu dois les préparer en fonction du GPU, sa marque, son modèle, ses capacités etc.