Et vous gobez tout comme des otaries.
Dans son dernier évènement dédié aux nouvelles RTX3000 Nvidia s'est targué d'avoir des performances par watt 90% supérieures par rapport à leur précédente architecture.
Et pour l'illustrer ils nous ont montré ce graphique :

En gros pour atteindre 60fps Turing a besoin de 240W contre 130W pour Ampere.
Ok, sauf que c'est une façon un peu malhonnête de calculer l'efficacité énergétique ou du moins c'est celle qui les arrange le plus.
Mais si on fait l'inverse ça donne quoi ?

A 120W Ampere envoie seulement 20% de perf en plus que Turing, et à 240W c'est 47% ce qui est certes déjà pas mal mais c'est deux fois moins qu'annoncé.
Bref il est urgent d'attendre des tests indépendants.
Comme pour tout,et je le ferais,même si les stocks vont être limité. Attendons de voir des tests type ACV,FC6,Cyberpunk,même si d'ici là pour trouver une carte ça sera chaud.
Dans un sens tant mieux, ça fera rentrer des stocks de 3000 et ça permettra de nourrir le marché de l'occasion.
https://www.youtube.com/watch?v=A7nYy7ZucxM&feature=emb_title
J'ai fait l'erreur un jour de mettre plus jamais plus de 1500 euros dans une ou trois carte graphique,plus jamais.
A moins que tu veuilles juste joué en 8K,ou que tu fasses du surround gaming,streaming,j'arrive toujours pas à voir l'intérêt de cet 3090 à moins de faire ce que j'ai mentionné au dessus.
On s'en fout au fait.
Pour que ça fonctionne il faut un mettre un place une solution logicielle dans Windows, Microsoft bosse dessus et vise 2021 pour la sortie.
Et ils ne mentent pas, le graphique est clair et sans ambiguité, c'est "à performance égale, 90 % de conso en moins" qui est plus vendeur que "à puissance égale 20% de perf en plus"
Le reste c'est que de l'interprétation, Nvidia va mettre en avant ce qui est le plus avantageux ce que ferait n'importe quelle entreprise.
ravyxxs les devs de penchent déjà dessus, tout comme les SSD des next gens.
Seulement il faut du temps pour optimiser les moteurs de jeu et ensuite encore du temps pour sortir des jeux lès exploitant.
La plupart des jeux tiers exploiteront correctement la nouvelle gen à l'aube 2022 oui.
Rien de surprenant.
Les firmes mentent ouvertement, pas seulement Nvdia...
Et nous comme des cretins on achète
Le GPU reste très bon d'après les premiers leaks/retours, et on verra très rapidement la confirmation.
Après oui même si 10 sera très bien il va y avoir quelques exceptions où tu ne pourras pas tout mettre à fond comme les textures.
Je suis d'accord avec toi, juste une nuance, on est pas tous bêtes comme des moutons, on achète en connaissant la vérité et les réels valeurs du produits achetés, en virant la partie marketing.
l'objectivité disparait au profit de la dictature de sa communauté .
la dissidence de masse par jugement devient palpable pour une minorité de bien-pensant .
Nvidia ,un commercant comme un autre ,c'est les pratiques qui ont changé
Pourtant c'est la base de tout, c'est à cause de ça que AMD est incapable de concurrencer Nvidia sur le très haut de gamme, ils ne peuvent pas augmenter la consommation à l'infini parce que ça serait impossible à refroidir donc il faut améliorer les performances par watt.
Perso j'y vois une attaque directe aux fameux 50% promis depuis longtemps par RDNA2 genre c'est nous les plus fort. Après on connait pas la méthodologie de AMD pour calculer leur gain d'efficacité, si ça se trouve c'est la même.
Pour l'instant c'est AMD qui à tout à prouver, pas l'inverse, donc dans l'état actuel des choses, voyons voir si déjà AMD arrive à produire l'équivalent de la gamme 20x0.
Et bon, on comprend que ça t'agace que ta PS5 qui était plus ou moins l'équivalent d'une carte presque haut de gamme NVidia devienne au moins 2 fois moins puissante qu'une carte moyen de gamme NVidia.
Mais bon, il faut s'y faire, cela a toujours été comme ça et AMD n'a pas inventer de poudre magique pour transformer un GPU de 200€ en équivalent d'un GPU NVidia de 600€.