Les gens font bien ce qu'ils veulent de leur fric mais les gammes XX70 ou XX80 sont largement suffisante pour du JV, c'est même déjà pas loin d'être overkill si on optimise un minimum les paramètres visuels pour une différence à l'écran quasi imperceptible
Ouais, à force, ça devient vraiment absurde. Il faudrait arrêter avec cette course à la démesure. En plus les prix ne bougent pas. Récemment, quelqu’un m’a demandé de monter une petite config, alors j’ai jeté un coup d’œil vite fait, et les prix ne baissent pas avec l’arrivée des RTX 5000 et des nouveaux processeurs Intel. J'ai même l'impression que sur certains produits, les prix ont encore grimpé...
Les alimentations moderne genre atx 3.0 se doivent de les supporter de manière proportionnel à leur wattage
À verifier mais par exemple une alimentation 800W certifiée atx 3.0 doit supporter 1600W en transient (laps tres court) je crois
J’ai pas les chiffres exact en tete mais c’est une proportionnalité et un standard
Sinon franchement ultra décevant cette generation Nvidia, ils n’ont fait aucun effort niveau efficacité et puissance raster (non IA) et utilisent toujours le 5nm utilisé en 2022 sur leur gen précédente
Pour mon nouveau PC je vais voir les GPU 4000 d’occasion ou la 5070ti/5080 j’attends les tests
Ça devient vraiment abusé là, vu le rendu atteint et les technos dispos (dlss, framegen etc...), ils feraient de chercher à augmenter le rendement de puissance par watt plutôt que de toujours augmenter la puissance brute au détriment de la consommation. Parce que c'est facile comme ça hein... Les constructeurs n'ont aucun mérite et même si je sais que c'est un marché où une tel projet serait difficile à faire avaler beh ils sont où tous les Jean-écolos, je roule en Tesla pour la planète euh pour me la péter, le pc c'est sûr c'est pas vraiment un signe de richesse extérieure contrairement à une bagnole
Pendant 1ms, ce qui reste conforme à la norme ATX 3.1. Reste à voir si les relevés sont fait pendant des sessions de jeu ou du benchmark afin de pousser au maximum les cartes.
Cela n'empêche pas cette carte d'être complètement overkill et surtout sous utilisé pour les jeux vidéo et donc d'avoir le plus mauvais ratio prix/puissance, pour du jeu vidéo bien sûr, possible actuellement.
Ont est en train de se retrouver dans la situation d'il y a 30 ans, jouer sur PC va redevenir un luxe uniquement accessible aux riches.
Dans les faits c'est plutôt l'inverse qui se passe. À cette époque le matos PC était pas donné, un bon PC c'était 1500euro, sans tenir compte de l'inflation de ses 20 dernières années.
Ajd pour 800 euros, t'as déjà des tours qui offrent des performances pas extraordinaires mais déjà bien satisfaisantes, à l'image des consoles.
Et pour 1500 euros t'as déjà un truc nettement plus haut de gamme qu'à l'époque.
51love le problème c'est qu'a chaque génération de GPU les prix s'envolent même sur des cartes qu'ont qualifiaient de mid gamme à une époque. Quand tu vois ce que tu payais une GTX 970 à l'époque et quand tu vois le prix actuel du 4070 ont est pas loin du double. La gamme XX80 qui était toujours considérée comme du haut de gamme pour jouer confortablement dans de hautes résolutions et haut framerate c'est x2 et en rasterisation c'est compliqué d'avoir de bonne perfs en 4k (je rappel que déjà la 3080 était considérée comme une carte pour la 4k/60) sans devoir te taper du DLSS à gogo.
Le marché des CG (du moins chez NVidia) c'est devenu de la merde depuis les RTX. Tu veux une carte correct pour jouer en 4k avec de bon paramètres elle te coute à minima 700 boules et t'es quasi obligé de faire avec leur technos pour ne pas avoir de drop de FPS.
J'ai vu hier un test de la 5090 (la FE fait 2500 balles quand même), elle fanfaronne avec du 300fps en 4k sur des jeux comme Cyberpunk, alors c'est super sur le papier mais en réalité avec le DLSS 4 et le multi frame gen y'a quasi plus rien qui est calculé en brut par la carte vu que toutes les perfs se sortent avec l'IA.
Avant ça c'était les perfs brut des cartes de nouvelles générations qui faisaient fois, maintenant t'as juste l'impression d'avoir un périphérique dans ton PC qui pompe sur l'IA pour te faire croire que ton jeu est ultra fluide. Et ils osent te vendre ça un SMIC... Ca me rappel ces SDD de 50 To que t'achète sur TEMU à 100 balles alors qu'à l'intérieur c'est juste un carte SD de 32 Go bidouillée pour faire croire au système qu'elle fait beaucoup plus.
Désolé pour le pavé mais j'aime pas ce qu'est en train de devenir le marché des cartes 3D. Ont te fait miroiter des perfs de malade pour justifier des prix toujours plus fou alors qu'en réalité c'est de la fumisterie qui te fait une image dégueulasse et une latence digne des premiers LCD.
Oui rien de surprenant à ce pic de consommation mais cette carte est pour les connaisseur qui veulent le top quelque soit le prix . Les autres se contenteront des modèle en dessous qui seront plus économiques.
niflheim la nouvelle référence graphique putain je sais pas si tu es complètement con ou si tu le fais exprès mais tu es devenu le plus marrant du site
niflheim après je doutes pas que le jeu sera magnifique et je le constateras par moi même sur ma ps5 et mon pc . Mais je parler de toi pour tes interventions général.
nyseko Tu devrais comparer par rapport à la PS4 par exemple... on se rassure comme on peut mais tu penses que c'est avec des définitions de 720p ou 984p sur Spiderman et Avatar et tous les AAA que la PS5 serait équivalente à un GPU de 2023 ? n'importe quoi. non : équivalent à une GTX 1660. La PS5 Pro embarque le même processeur de 2019 de la PS5 équivalent à l'entrée de gamme PC de l'époque. Comparer ça aux generations de GPU même pas sorties à l'époque, n'a aucun sens puisque les consoles ont toujours eu 2 gens de retard.
5120x2880 : C'est exactement l'inverse qui va se produire, ses cartes vont être en rupture de stock permanente.
wickette : Oui surtout sur des périodes aussi brèves, j'aimerais mieux savoir quelle est l'intensité instantanée et si la tension reste stable malgré tout.
Du point de vue architecture, Nvidia est au taquet, on peut gagner un peu niveau finesse de gravure mais ça ne suffit absolument pas pour les besoins des jeux vidéo toujours beaucoup plus gourmands.
Et la seule solution pour le moment est à base d'IA, le DLSS 4 et le Multi Frame Generation sont vraiment impressionnants (je pourrais vous mettre quelques captures) - j'étais sceptique mais en terme de perf et même visuel, ça dépasse vraiment le DLSS3.
Clairement, l'industrie va aller dans cette direction parce que ce n'est plus gérable autrement, les perfs en rasterisation à conso consgtante stagnent totalement.
Je pense prendre une 5070Ti mais il n'y aura pas de FE pour celle-ci et j'ai peur que les customs soient au même prix qu'une 5080 FE...
Ont est en train de se retrouver dans la situation d'il y a 30 ans, jouer sur PC va redevenir un luxe uniquement accessible aux riches.
Les alimentations moderne genre atx 3.0 se doivent de les supporter de manière proportionnel à leur wattage
À verifier mais par exemple une alimentation 800W certifiée atx 3.0 doit supporter 1600W en transient (laps tres court) je crois
J’ai pas les chiffres exact en tete mais c’est une proportionnalité et un standard
Sinon franchement ultra décevant cette generation Nvidia, ils n’ont fait aucun effort niveau efficacité et puissance raster (non IA) et utilisent toujours le 5nm utilisé en 2022 sur leur gen précédente
Pour mon nouveau PC je vais voir les GPU 4000 d’occasion ou la 5070ti/5080 j’attends les tests
Cela n'empêche pas cette carte d'être complètement overkill et surtout sous utilisé pour les jeux vidéo et donc d'avoir le plus mauvais ratio prix/puissance, pour du jeu vidéo bien sûr, possible actuellement.
et qui sera plus pissant
marcelpatulacci
En tout cas, 100 watts tous les 10 FPS entre la 4090 et la 5090...
Dans les faits c'est plutôt l'inverse qui se passe. À cette époque le matos PC était pas donné, un bon PC c'était 1500euro, sans tenir compte de l'inflation de ses 20 dernières années.
Ajd pour 800 euros, t'as déjà des tours qui offrent des performances pas extraordinaires mais déjà bien satisfaisantes, à l'image des consoles.
Et pour 1500 euros t'as déjà un truc nettement plus haut de gamme qu'à l'époque.
Le marché des CG (du moins chez NVidia) c'est devenu de la merde depuis les RTX. Tu veux une carte correct pour jouer en 4k avec de bon paramètres elle te coute à minima 700 boules et t'es quasi obligé de faire avec leur technos pour ne pas avoir de drop de FPS.
J'ai vu hier un test de la 5090 (la FE fait 2500 balles quand même), elle fanfaronne avec du 300fps en 4k sur des jeux comme Cyberpunk, alors c'est super sur le papier mais en réalité avec le DLSS 4 et le multi frame gen y'a quasi plus rien qui est calculé en brut par la carte vu que toutes les perfs se sortent avec l'IA.
Avant ça c'était les perfs brut des cartes de nouvelles générations qui faisaient fois, maintenant t'as juste l'impression d'avoir un périphérique dans ton PC qui pompe sur l'IA pour te faire croire que ton jeu est ultra fluide. Et ils osent te vendre ça un SMIC... Ca me rappel ces SDD de 50 To que t'achète sur TEMU à 100 balles alors qu'à l'intérieur c'est juste un carte SD de 32 Go bidouillée pour faire croire au système qu'elle fait beaucoup plus.
Désolé pour le pavé mais j'aime pas ce qu'est en train de devenir le marché des cartes 3D. Ont te fait miroiter des perfs de malade pour justifier des prix toujours plus fou alors qu'en réalité c'est de la fumisterie qui te fait une image dégueulasse et une latence digne des premiers LCD.
GTX Turbo Compétition
Les reflets dans Intergalactic
Donc bon, ça reste très bien mais largement dépassé par une RTX 5070 ou une RTX 5080.
par contre, pour omgpu, ça parle sans preuve, l'ignorance à son paroxysme, comparé à ça, un vrai test fait par un expert :
https://www.youtube.com/watch?v=vfIqP293Q5M
wickette : Oui surtout sur des périodes aussi brèves, j'aimerais mieux savoir quelle est l'intensité instantanée et si la tension reste stable malgré tout.
Du point de vue architecture, Nvidia est au taquet, on peut gagner un peu niveau finesse de gravure mais ça ne suffit absolument pas pour les besoins des jeux vidéo toujours beaucoup plus gourmands.
Et la seule solution pour le moment est à base d'IA, le DLSS 4 et le Multi Frame Generation sont vraiment impressionnants (je pourrais vous mettre quelques captures) - j'étais sceptique mais en terme de perf et même visuel, ça dépasse vraiment le DLSS3.
Clairement, l'industrie va aller dans cette direction parce que ce n'est plus gérable autrement, les perfs en rasterisation à conso consgtante stagnent totalement.