... Une RTX 4060 (1 slot / 1 ventilo en plus lol).
Tout fébrile, je suis passé de ma Xbox Series S à la RTX 4060 sur mon humble PC. Après 1000 mises en gardes sur Gamekyo, allant presque jusqu'aux menaces si je continuais de parler de "cette merde", je m'apprêtais à jouer à Street Fighter 6 en Low 720p + RSR en 30 fps sur cette carte fraichement acquise (ah non, ça c'était censé être sur la ROG ALLY, mais là aussi tout roule. Même en 1080p pour les trolls...).
Pour la fraction du prix d'une PS5 en promotion avec ses -75€, j'ai pu goûter à Street Fighter V dans sa version ultime, avec chaque option graphique au maximum, sans perdre une seule frame, j'ai pu avoir une once de ce que certains appellent le "PC MASTER RACE" un truc du genre. Enfin, je n'en suis pas vraiment digne puisque ce n'est pas une RTX 3080 (et comme j'ai un écran GAMERZ 165 Hz FreeSync VRR qui n'est qu'en 1080p, forcément...).
Enfin bref, maintenant, ma nouvelle étape va être de concevoir un PC plus petit qu'une PS5 tout en lui mettant une fessée. Avec une carte RTX 1 slot qui bouffe même pas 100 watt en TDP, ça devrait le faire uwu !
Et cerise sur le gâteau, on peut jouer à Fortnite avec du RT Global Illumination et RT reflexion en 60 fps + DLSS Performance. Le tout en ayant même pas eu besoin de dépenser un SMIC pour cela !
Fortnite c'est encore mieux qu'avant désormais !
Ça risque de bien poutrer avec les jeux UE5.2
Même si j'suis CPU limited maintenant avec mon i5 9400F. Comme quoi, même une RTX 4060 c'est overkill pour ma config, la GTX 1660 TI s'en sortait pas si mal finalement !
Bref, la carte, elle me pète un smile pour 325 € neuf, franchement GG Nvidia sur ce coup là ! J'aime de plus en plus le monde du PC avec des tarifs aussi abordables et des performances de premier niveau !
Par contre, sur le DLSS, je regardais des vidéos, et c'est dur de choisir face au TSR en vrai...
"TSR is a lightweight algorithm (no Tensor Cores required) with shaders specifically optimized for PS5's and XSX's GPU architecture (source)."
PS : ça se vend combien une GTX 1660 Ti 1 Slot OEM HP ?
MAJ :
Parait que Cyberpunk + Path Tracing passe en 50 fps finger in the nose lol pas mal pour cette "carte de merde".
Bref, la carte, elle me pète un smile pour 325 € neuf, franchement GG Nvidia sur ce coup là !
Si Linus Sebastian voyait ça en anglais, il aurait une envie de te baffer, tellement tu n'aides pas le monde du PC en acceptant l'arnaque de Nvidia (3060>4060 )
C'est ouf d'être têtu à ce point, et de se lever au fond de la classe et d'être heureux d'avoir ramasser la merde du chien que tout le monde a dit de ne pas toucher, juste histoire d'attirer l'attention.
suzukube Alors GG et pas GG du tous , le premier pour avoir fait l'effort d'upgrade ton pc , le deuxième pour avoir pris la 4060, je tes dis plusieurs fois de regarder l’occasion et si tu devais prendre une carte faillais au moins viser une avec 12go de v-ram .
Je dois me prendre une cg bientot, mais j'attends.
je reste chez amede après la vega 56, que j'avais touché a 300 balles + 3 jeux a l'epoque. Avec la revente de la 1060, ca me revenait à 150 l'upgrade. Voir quasi gratos avec les games. Puis quand t'as gouté aux joies d'adrenalin, je retourne pas chez les verts. Tout est configurable jusqu'a la moelle.
La 6650xt me fait de l'oeil. Je reste en 1080p aussi. Après je me dis que la 6600 est tout aussi correcte pour cette reso. Elle est à 200 balles. A voir.
T'as pas de baisses de fps grace au proco et a la non surchauffe.
Puis j'aurai acces a des features inédites avec le 5600g ( 140 boules quoi ). Oai, maintenant, AMD + AMD, ca boost reellement les perfs.
ravyxxs
Il fait le coup à chaque fois, il vient demander conseils sur Gamekyo mais en réalité son but est de faire un article poubelle.
Il fait semblant de lire nos avis et conseils, puis il revient la fleur au fusil en disant « je n’ai pas suivi vos conseils mais voici mon achat ».
J'avoues la VRam sur les GPU c'est un gros argument, les jeux Capcom sur PC c'est bien fait niveau setup il te cacul le besoin vram selon les features que tu veux
Bah tu fais bien ce que tu veux et si t es content c'est tout ce qui compte, mais c'est vrai que perso pour le même prix voir moins cher j aurais pris une rtx 3060 ...
Avec une RTX 4080, j'espère que tu joues sur un écran 120 cm et pas un 24 pouces pour pouvoir en profiter à fond!
C'est comme acheter une Ferrari et être limité à 130 sur l'autoroute
shining Oui, je vais renvoyer la carte et acheter une GTX 1080 Ti à la place, merci beaucoup !
drybowser Bah à part avoir 12 Go de VRAM, autant partir sur de la RX 7600 si c'est vraiment ce qui te gène, parce qu'à part ça, c'est pas ouf la RTX 3060 ?
krusty79 C'est pas du courage, c'est du bon sens tu sais !
ostream J'sais pas, à lire les commentaire, j'avais cru qu'on pouvait tout juste faire tourner le démineur sur cette carte
leonsilverburg totalement ! C'est pour ça que sur mon écran 24" 165 hz en 1080p, c'est une carte idéale. N'ayant pas d'autoroute à disposition, j'ai préféré prendre une petite Cooper S qu'une Ferrari Enzo !
kabuki ouais, j'ai vu sur RESIDENT EVIL 3 REMAKE. Sauf qu'en vrai, ne pas avoir les texture en élevée 8Go mais en élevée 3go sur mon écran 1080p, j'vais pas bien loin, j'vois pas la différence en vraie (ouais, j'peux quand même mettre en élevée 8Go en vrai lol ça fait juste perdre quelques fps).
suzukube J'ai dis 12 pas 11go donc ta 1080 ti tu peux te la garder , franchement la 4060 est trop cher pour son prix tu trouve des 3060 a 200eu, mais bon comme d'habitude tu écoute pas ...
suzukube ouais si tu joues pas sur un gramd ecran 4k oled dans ton salon pas besoin de texture aussi lourde. Mais perso je met tout à fond perso surtout les texture vue la taille de ma TV, du coup moi j'ai pris une 7900XTX 24Vram je suis tres content
kabuki Ah mais sur un écran 4K jamais j'aurais recommandé une RTX X060 ! Personnellement sur l'écran OLED j'suis sur PS5 / Xbox Series X. Mais pour jouer et streamer, j'suis sur du Full HD IPS 165 hz, pour jouer à Overwatch 2, Fortnite et Apex Legends, j'ai pas besoin de plus !
Après les coeurs RT c'est rigolo pour le Ray Tracing, mais jusque là, à part jouer au jeu de septs différences, c'est pas ouf. J'avais juste envie d'un tit caprice, pour une fois qu'une carte ne sort à plus de 500 balles quoi...
Et puis j'vais vendre pas cher ma petite 1660 Ti. Je l'aime bien mais ça fera un heureux !
Sinon, par curiosité, une 7900XTX, ça se débrouille bien en Ray Tracing non ? C'est du RDNA3 ? J'suis un peu perdu sur les progrès d'AMD en la matière !
fragg Ah ah oui ! Et pour un prix raisonnable, je n'avais aucune envie de foutre un smic dans une carte graphique (ni d'avoir la consommation électrique d'un pays comme l'Irlande chez moi).
J'ai qu'une hâte : lancer Cyberpunk 2077, un des rares jeux en DLSS 3.0 ! Je sens que ça va être magique (ou que mon CPU va m'envoyer chier lol) !
suzukube Et surtout un jeu avec la Frame Generation ! Tu vas voir c'est énorme ! J'ai moi aussi une vieille config un i7 7700k et j'avais une 2080SUPER je suis sur un écran 1080p gsync.
Et bien j'ai changé pour une 4070ti ... Pfiou la différence sur les jeux utulisant les techno nVidia ! Sur les autres aussi biensur !
fragg Ah oui ? Tu vois, je n'aurais pas pensé qu'avec simplement les GAPS générationnel tu aurais une différence ! Imagine moi qui passe de GTX 1660 Ti à RTX 4060 avec toutes les technos récentes d'nVidia, c'est un régal !
Jouer en natif ça n'a plus de sens, le DLSS fait même office d'antialiasing dans Fortnite (genre les lignes ou les cheveux sont plus nets qu'en natif avec du TAA par exemple) !
C'est très prometteur et c'est cool que AMD suive avec le FSR. Ca augure du bon pour l'avenir du jeu vidéo, car je t'avoue que la course à la résolution, ça me saoulait tellement. J'imaginais déjà qu'on allait jouer au même jeu en bavant sur The Witcher 3 parce qu'il était en 8K 120 fps, j'avais envie de gerber.
Oui y'a quand même quelques années, et j'ai pu monter certains paramètres de certains jeux, après quand ils sont "CPU Limited" je ne peut rien faire, ça m'apporte plus de fps mais pas tant que ça.
Mais ce qui est "amusant" c'est que sur "Watchdog Legion" j'ai beau changer de résolution mes fps bougent pas... c'est bien que ce jeu est "CPU limited".
C'est sur que pour toi tu vas redécouvrir chaque jeu ou le DLSS est présent, entre un meilleur confort visuel et un boost de fps !
D'ailleurs ce que j'ai fait aussi c'est que sous windows j'ai changé la fréquence d'utilisation du moniteur à bien plus que 60fps, mon moniteur allant jusqu'à 144, ce qui fait que le défilement sur les pages, le déplacement des fenêtres tout ça rend windows aussi plus "fluide" et c'est agréable
fragg Ah ah étant trèèèèès souvent sur l'ordinateur de par mon métier, ça fait longtemps que j'ai mon windows en 165 Hz avec de la navigation en ligne bien Smooth ! Ça fonctionnait bien sur la 1660 Ti, mais avec la RTX 4060, c'est le silence total
La carte ne consomme rien en énergie (j'suis à 11 watts tout de suite la mdrr), l'alim de mon PC c'est une 300 Watts, franchement c'est ptet plus cher qu'AMD mais le travail d'optimisation est fou, surtout niveau conso et chauffe.
T'imagines un peu la dinguerie O_o ! Du coup j'en ai pris une minuscule j'vais me faire un de ces mini PC prochainement, ça ira bien avec ma ROG ALLY !
Entre le Z1 Extreme et la 4060, j'crois que l'industrie des semiconducteurs se réveille enfin ! J'croyais que seul Apple avec ses M1 savaient encore créer des puces !
fragg Attend, là, j'viens de faire une vidéo : imagine :
- J'mets toutes les options à fond sur Cyberpunk 2077, y compris le Path Tracing - 9 fps
- J'active toutes les options du DLSS 3.0. - 50 fps.
A ce train là, ce n'est même plus de la technologie, c'est littéralement de la magie.
Le tout en consommant tranquille 110 Watts, et en étant bottle neck (léger) par le CPU (on est à 86% de la carte utilisée).
J'comprends que quand on a acheté une RTX 3080 et que le DLSS 3.0 n'est pas compatible, on l'a de travers dans la gorges, mais force est de constater qu'avec ce genre de technologie, j'ose même pas imaginer les rendus qui seront possibles sur une RTX 4070 / 4070 Ti ou 4080 une fois que cela sera pris en compte dans le développement de jeux ! Et plus y'aura de joueurs avec des RTX 4XXX, plus ça sera rentable de faire des projets profitant vraiment de ces cartes (c'est le même soucis pour le RDNA 3 de la ROG ALLY d'ailleurs si elle veut décoller) ^^ !
Merci pour tes commentaires en tout cas, ça fait plaisir ! Et... Très bon choix ta 4070, j'ai failli en acheter une mais finalement j'ai préféré prendre une ROG ALLY, sur un écran 1080p je trouvais ça vraiment overkill, et ça aurait été du gâchis avec mon 9400F sur pas mal de jeux !
suzukube ba c'est la plus grosse carte de chez AMD avec toute leur derniere techno, pour le ray tracing il parait que Nvidia est mieux mais franchement vue la dif de prix et de ce que je vois du raytracing dans mes jeux franchement je suis aux anges
netero Attends, tu peux activer le Path Tracing sur la 6600 pour me convaincre, parce qu'à ce train là, j'avais la même chose sur ma 1660 Ti si c'est pour jouer en 1080p High 60 fps ?!
kabuki J'connais pas trop AMD, mais il faudra que j'm'y mette un jour. Ma ROG ALLY m'étonne tous les jours, j'me dis que c'est sous côté les RX. C'est Bennj qui m'a fait découvrir la gamme RX 7XXX ah ah dès que j'trouve quelqu'un qui a une config du genre j'vais tester ça ! J't'avoue que j'connais pas grand monde en AMD sur mon île !
netero21 fps avec du Path Tracing, effectivement, j'ai grave besoin de me rassurer là... Ptain ça vient encore de me refroidir de prendre une carte AMD, félicitations.
suzukube AMD c'est du tres bon matos perso j'avais une RTX avant c'etait sympa mais vue que la je veux pouvoir jouer sans compromis et que j'ai clairement pas envi de mettre autant dans le haut de gamme Nvidia , j'ai pris le haut de gamme AMD pour moins cher.
kabuki Ah mais en haut de gamme, y'a pas photo, surtout en rasterisation et en Vram sur ta carte ! Le rapport qualité prix sera meilleur, même si, personnellement, en Ray Tracing / DLSS j'ai quand même l'impression que nVidia a de l'avance (je suis plus attiré par une RTX 4070/4070Ti en haut de gamme).
Par contre entre une RX 6600 et une RTX 4060, y'a même pas match pour moi. Sauf à comparer sur d'anciens jeux sans RT ni DLSS mais bon j'ai acheté ma carte pour l'avenir (et streamer), pas pour rejouer à The Witcher 3, Death Stranding et Skyrim :/ Ah la limite, on m'aurait dit une RX 7600, j'aurais commencé à zieuter...
Après, pour 200€, ouais, la RX6600 fait le taff', mais bon, si c'était pour changer ma GTX 1660 Ti pour une RX6600 et continuer de passer mon temps à jouer à Fortnite en désactivant Nanite, l'intérêt était vraiment nul :/
suzukube ouais enfin le Path Tracing il est dans un seul et unique jeu qui étonnamment est un jeu sponso Nvidia... De là à dire que c'est une pub pour Nvidia il y a un pas que je franchirai allègrement.
bennj une RX6600 ce n'est pas tellement plus glorieux en Ray-Tracing :-/
netero Oui... Mais personnellement, ça me gènerait d'être sur du RDNA2 quand le RDNA3 est dispo sur le marché ! Pour simplifier un jeu optimisé RDNA3 permet 2 fois plus de calcul par seconde que sur RDNA2 via le Wave64 (https://www.hardwaretimes.com/amd-rdna-3-vopd-instructions-provide-only-a-4-performance-boost-in-ray-traced-scenes-will-improve-over-time/). Le truc, c'est que ça ne fonctionne QUE sur les jeux avec une opti RDNA3. Quand la Z1 Extreme est annoncé à 8.4 Tflops, c'est uniquement dans ce cas de figure, sinon on est plus autour des 4 TFLOPS (t'as vu BennJ AMD aussi fait dans le marketing ).
Alors évidemment, pour l'instant une 6750XT reste avantageuse, mais les RDNA3 (RX 7XXX) pourraient, à l'avenir, avoir l'avantage.
Mais bon, c'est le même genre de spéculation que si le DLSS 3.0 se répands dans tous les jeux, alors les RTX 4XXX auront un avantage considérable sur toute la gamme et sur AMD.
Sinon la 6750XT était vendue 650 € et n'est plus produite ni en vente. La RX 7600 est vendue 335 € avec le jeu Starfield offert. Pour moi, les 2 cartes ne sont pas dans la même gamme, et la RX 7600 est la vraie rivale de la RTX 4060, même gamme de prix et même disponibilité !
Adrenalin, je teste sur ma ROG ALLY, mais je trouve RTX Broadcast + Geforce Experience au-dessus (pour le streaming), surtout au niveau du fond vert virtuel ! J'ai aussi une utilisation CPU élevée je trouve sur le noise suppression en streaming, alors que le CPU de ma ROG ALLY pulvérise mon i5 9400F, mais je dois encore faire des tests ^^ !
Sinon, niveau réglages pour les jeux, Adrenalin est au dessus, avec par exemple le RSR qui peut être appliqué à n'importe quel jeu, là ou chez Nvidia t'es obligé d'avoir l'option DLSS implémenté par l'éditeur quoi...
netero Du coup d'ailleurs, y'a des polémiques car une RX 7900 vendue comme une carte 61 Tflops n'en "développera", à l'heure actuelle, que 36 Tflops dans la majorité des jeux non optimisé RDNA3... T'as un reddit ici à ce sujet.
Comme je disais, du coup, c'est vraiment encourageant pour l'avenir, mais bon, on ne peut pas savoir comment ça va se passer. En théorie, les jeux Unreal Engine 5 devraient être "automatiquement" optimisés !
Mais bon, après, si tu joues qu'a des jeux actuels ou passé, c'est sûr qu'économiser en prenant une carte d'occasion, ça reste la "best" solution. Personnellement, j'suis un technophile, j'aime étudier justement ces nouvelles possibilités et les vulgariser !
bennj Et je te reprends ! Bah t'as raison pour le Path Tracing et Nvidia, j'y jouais là sur ma RTX 4060 et je l'ai désactivé. Non pas à cause des performances (jouer à Cyberpunk à plus de 60 fps, aucun intérêt). Mais j'comprends pas ça rend tout ultra brillant, les routes on dirait des patinoires mdrrrrrrr. Même en RTX Psycho je n'aime pas trop le rendu (après c'est moi hein), j'ai remis en Ultra et ça me convient.
J'sais pas, sur la route, je déteste vraiment cet effet, j'pense qu'ils auraient du doser un peu quand même. Après c'est sympa à JigJig Street, mais sincèrement, j'vois pas trop de différence entre Ultra / Psycho et Path Tracing, sauf à activer et desactiver les modes RT et jouer au jeu des 7 erreurs (ou à vérifier le nombre de FPS lol).
Mais...
AMD devrait développer un "Frame Generation" en plus de son FSR. Avec l'architecture RDNA 3 ils pourraient avoir une vraie avance sur Nvidia je pense !
bennj Après c'est assez spécial le frame generation sur une petite configuration. Ca va te permettre d'activer tous les effets à 60 fps (par exemple), par contre, si tu compte l'utiliser pour avoir du 120 fps sur Cyberpunk (par exemple), bah en fait dans mon cas le CPU ne suit plus du tout à faire ses calculs 120 fois par exemple et ça va... Ralentir le tout et créer du stutter (lol).
Du coup, c'est vraiment top pour afficher un jeu avec un niveau de détail où ta carte est à genoux (genre à 30 fps). Mais sur une carte comme une RTX 4090, j'sais pas vraiment si c'est utilisable sur Cyberpunk 2077. Bon après, tu me diras que si derrière t'as un Core i9 haut de gamme, ça passe, mais après y'a la question de savoir si y'a un intérêt de jouer au jeu en 200 fps à un moment...
Après, perso, j'aime bien cette approche et ça n'ajoute pas vraiment de latence perceptible (pas plus qu'une manette PS4 en Bluetooth quoi).
bennj 35 ms de latence en DLSS 3.0 par contre attention à désactiver la VSync sinon ça perd les pédales ça peut monter à 110ms de latence ! Mais il me semble que même sans DLSS, la VSync ça rajoute de la latence, après pour moi si t'es sur PC t'as forcément un écran VRR/freesync/GSync, c'est tellement plus pratique...
netero Wouaaaa mais 250 W de TDP face à 110 W faudrait que je change toute ma tour pour accueillir la carte, une 3 slots et 3 ventilos, j'espère qu'elle est silencieuse ! En vrai, tout est une question d'équilibre et de ce que l'on recherche, je voulais une carte qui consomme peu (je l'ai unboxée là : https://www.youtube.com/watch?v=zGfzn1kMfw0).
Cela dit, la carte dépasse tous mes espoirs, et en vrai on est à un tel niveau de puissance que n'importe quel jeu peut être joué dans de très bonnes conditions actuellement. J'ai eu un commentaire sur ma chaîne YouTube qui rappelait que dans certains pays, même acheté une Switch, c'est hors de prix (venez au Brésil voir comment ça se passe).
Pour le FSR, ça fonctionnait effectivement sur ma GTX 1660 TI, mais j'ai vu que Epic Games n'utilise plus le FSR mais le TSR dans Fortnite. J'en conclus donc que même si le FSR 3 (?) ne sera pas disponible sur nvidia, ça ne sera pas un souci.
Après... J'pense que AMD avait fait cela pour que le FSR soit plus répandus que le DLSS dans les jeux (car option qui fonctionne pour tout le monde et pas juste une partie du marché, sans compter les Xbox Series et les PS5), mais du coup ça ne donnait aucun avantage d'acheter une carte AMD (au contraire, genre sur ma 4060, j'peux choisir entre TSR / FSR et DLSS. Il me semble même que le Xe d'Intel est disponible j'ai pas testé).
Perso la 4060 Ti, en 16 Go là, j'trouve ça vraiment trop cher par contre...
Mais du coup tu n'aimes pas la nouvelle gamme d'AMD ? Le RDNA 3 n'a pas l'air d'avoir la côté, j'ai vu les stats sur steam c'est genre 80% des cartes graphiques c'est du NVIDIA... En tous cas, j'suis ultra satisfait moi, franchement pour 300 boules j'trouve ça complètement ouf, j'me souviens encore des RTX 2060 à 700 balles que je trouvais sur le net lol !
netero Non, j'ai dis que je veux créer un mini ordinateur et que dans ce cas là j'aimerais, pour le fun, créer une config de la taille d'une Series X basée sur une RTX 4060. C'est un projet que j'étudie, c'est tout. Mais pour ce projet, ma carte mère actuelle ne fonctionnera pas... Et si je change de CM, faudra que je change de CPU.
Mais tout se basera sur le boitier que je trouverais. Pour l'instant je n'ai rien trouvé qui me plaisait. Le but étant d'avoir un boitier 1 Slot + une RTX 4060, tout le reste sera brodé autour. Et ce projet, je l'ai littéralement en tête depuis même pas 8 heures xD !
netero J'ai une Gainward à une 8PIN ALIM + 1 Ventilo sur ma RTX 4060 ça m'indique entre 110 Watt et 115 Watt en 99% charge GPU, après je t'avoue que j'm'amuse pas à mesurer le voltage réel sur la carte. Ma 1660 T était dans les 120/125 Watt donc c'est légèrement moins pour mieux, ça me va.
Après, en activant le DLSS sur Death Stranding par exemple, la conso tombe très bas avec en plus une charge GPU à 25%. Après j'suppose que c'est pareil sur une 3060 mais je n'en ai jamais eu ^^'
Quand je vois dans les propos de chez les numeriques, ceci :
Nvidia recommande d’ailleurs une alimentation de 550 W, et le concepteur de GPU voit large. Si vous optez pour une alimentation avec un rendement élevé, vous pouvez facilement réduire cette valeur à 450 W.
Je discredite a ce moment la leur test. Sérieusement ? Est ce que j'argumente ?
Encore une fois, l’efficacité énergétique des RTX 40 est impressionnante. La GeForce RTX 4060 consomme 32 % moins que les RTX 3060 et RX 7600, tout en étant respectivement 29 et 6 % plus performante que ces deux modèles.
Est ce qu'une CG peut s'underclock ? C'est la 6600 qui est à comparer, à ce moment là. Est ce que leur pourcentage veut dire seulement quelque chose ?
Sa mère, je regrette les tests poussés d'hardware.fr. T'appelle ça complet ? Un test, c'est minimum 12 pages x 3.
Le comptoir du hard a failli couler. Ils en avaient marre de la surconsommation. Heureusemnt, y'a eu des remplacants.
netero Bah, ça dépend, j'suis à 300 WATT mais mon proco c'est un i5 9400F. Si j'avais un proco plus puissant, j'entrerais plus dans l'enveloppe et je passerais effectivement sur du 450 Watt pour être large (j'ai une cam 4K connectée, une Ring LED, un micro Pro Blue Yeti etc).
J'recommanderais à personne du 300 Watt, j'le fais juste parce que c'est ce que j'ai et que j'ai la flemme de racheter une alim, si elle claque j'prendrais une mieux dimensionnée.
Après, moi j'suis grand public, ça me suffit comme test, et j'hésitais avec la RX 7600 justement, donc ça tombait à pic.
Suzukube : En fait, regarde sur le packaging comprenant l'alim gold de l'h1. Mon propos, c'est que je ne recommande à personne, du 450 ou 550w à l'heure d'aujourd'hui. C'est minimum du 650 watts. Pour la bureautique, du 300w, c'est suffisant. Trèèèèèèès largement.
Change asap d'alim. L'ideale c'est de se situer des les 50%. Si elle a pas les sécurités nécessaire, et j'emets un gros doute, c'est tout ton pc qui va cramer. Et au revoir ta rtx.
Parce que je suppose que la cm aussi est bas de gamme.
suzukube "AMD devrait développer un "Frame Generation" en plus de son FSR. Avec l'architecture RDNA 3 ils pourraient avoir une vraie avance sur Nvidia je pense ! "
Reste à voir maintenant si cette solution concurrente d'une sera aussi efficace que le DLSS3 et d'autre part si il sera où non compatible avec toutes les cartes graphiques contrairement au DLSS3 qui n'est compatible qu'avec une poignée de jeu et uniquement sur la génération 40 (moi qui avait une 3080 ça m'a bien foutu les nerfs).
Mais oui AMD a encore du retard sur Nvidia sur le ray tracing et aussi sur le dlss/fsr. Mais pour les jeux qui n'utilisent pas le RT soit 99.9% des jeux AMD est vraiment au top et n'a rien à envier à son concurrent vert bien au contraire.
bennj tu as tout dit et tu maitrises parfaitement ton sujet. Rien à ajouter !
Et pour le Ray Tracing, rien n'est perdu, les performances AMD sont actuellement aussi bonne sur du Lumen en RDNA3 que les cartes Nvidia (ne me demandez pas par quel miracle), donc même là, ils devraient se rattraper.
Et FSR 3, même s'il n'égale pas ce que fait Nvidia (ça me parait compliqué, Nvidia s'appuie sur de l'hardware), s'en rapprocher devrait suffire à proposer l'alternative à ceux qui aiment l'IA upscaling. S'ils arrivent à de bons résultats visuels avec du 75% de résolution upscale, ça serait déjà pas mal en vrai !
bennj Bon après le débat "est-ce que lumen c'est du RT", j'm'en fous un peu : le reflet est cohérent, ça fait la même chose que le RT, donc c'est bueno ! D'ailleurs j'ai été surpris de voir que du coup y'a du "Ray Tracing" dans Fortnite sur PS5 !!! En 60 fps !!!
Lumen ne se base pas sur du RT Hardware ! C'est pour ca que les cartes AMD s'en sortent si bien ! Lumen peut quand même utiliser les coeurs RT pour faire leurs rendus, mais sur Fortnite, pour une raison qui m'échappe, activer le RT HARDWARE pour Lumen, ça me fait perdre en FPS -_- !
Bref, tout ça pour conclure : Si Lumen devient la norme face au RT classique, hé bien même dans ce domaine AMD pourra plus que largement tenir tête à Nvidia (ah ah) !
"Lumen also comes with hardware ray-tracing, but most developers will be sticking to the former, as it’s 50% slower than the SW implementation even with dedicated hardware such as RT cores."
Bordel Lumen... J'ai tellement sous-estimé cette technologie ! Insomniac pour SpiderMan doivent voir un sorte de Lumen encore plus optimisé et spécialisé dans les reflets du coup ! C'est interessant ^^ !
Ouais mais qui me dis que tu est ''le vrai''?
Si Linus Sebastian voyait ça en anglais, il aurait une envie de te baffer, tellement tu n'aides pas le monde du PC en acceptant l'arnaque de Nvidia (3060>4060
C'est ouf d'être têtu à ce point, et de se lever au fond de la classe et d'être heureux d'avoir ramasser la merde du chien que tout le monde a dit de ne pas toucher, juste histoire d'attirer l'attention.
Deterrage de compte lol
Je dois me prendre une cg bientot, mais j'attends.
je reste chez amede après la vega 56, que j'avais touché a 300 balles + 3 jeux a l'epoque. Avec la revente de la 1060, ca me revenait à 150 l'upgrade. Voir quasi gratos avec les games. Puis quand t'as gouté aux joies d'adrenalin, je retourne pas chez les verts. Tout est configurable jusqu'a la moelle.
La 6650xt me fait de l'oeil. Je reste en 1080p aussi. Après je me dis que la 6600 est tout aussi correcte pour cette reso. Elle est à 200 balles. A voir.
T'as pas de baisses de fps grace au proco et a la non surchauffe.
Puis j'aurai acces a des features inédites avec le 5600g ( 140 boules quoi ). Oai, maintenant, AMD + AMD, ca boost reellement les perfs.
Il fait le coup à chaque fois, il vient demander conseils sur Gamekyo mais en réalité son but est de faire un article poubelle.
Il fait semblant de lire nos avis et conseils, puis il revient la fleur au fusil en disant « je n’ai pas suivi vos conseils mais voici mon achat ».
Clownesque !
Je joue principalement en 1080p et je suis pas plus que ça pressé.
C'est comme acheter une Ferrari et être limité à 130 sur l'autoroute
drybowser Bah à part avoir 12 Go de VRAM, autant partir sur de la RX 7600 si c'est vraiment ce qui te gène, parce qu'à part ça, c'est pas ouf la RTX 3060 ?
krusty79 C'est pas du courage, c'est du bon sens tu sais
ostream J'sais pas, à lire les commentaire, j'avais cru qu'on pouvait tout juste faire tourner le démineur sur cette carte
leonsilverburg totalement ! C'est pour ça que sur mon écran 24" 165 hz en 1080p, c'est une carte idéale. N'ayant pas d'autoroute à disposition, j'ai préféré prendre une petite Cooper S qu'une Ferrari Enzo !
kabuki ouais, j'ai vu sur RESIDENT EVIL 3 REMAKE. Sauf qu'en vrai, ne pas avoir les texture en élevée 8Go mais en élevée 3go sur mon écran 1080p, j'vais pas bien loin, j'vois pas la différence en vraie (ouais, j'peux quand même mettre en élevée 8Go en vrai lol ça fait juste perdre quelques fps).
cliana Alors si j'ai un conseil à te donner, regarde directement ma conclusion de mon unboxing : https://youtu.be/zGfzn1kMfw0?t=3881
Pour résumer, si ta 1060 te va mais que t'aimerais avoir du ray tracing / DLSS, tu peux y aller les yeux fermés.
Si par contre tu cherches à évoluer au niveau de la résolution ou du framerate en Raesterisation (mais à petit budget), go RX 7600 de AMD.
Si tu veux vraiment passer sur de la 4K, faut changer de gamme (mais c'est logique)
onimusha Tkt j'suis le vrai, suffit de voir les commentaires
pimoody Mdrrrr me suis suicidé dans Fortnite hier j'étais vers j'étais à Top 3 en plus -_- !
alexkidd
Après les coeurs RT c'est rigolo pour le Ray Tracing, mais jusque là, à part jouer au jeu de septs différences, c'est pas ouf. J'avais juste envie d'un tit caprice, pour une fois qu'une carte ne sort à plus de 500 balles quoi...
Et puis j'vais vendre pas cher ma petite 1660 Ti. Je l'aime bien mais ça fera un heureux
Sinon, par curiosité, une 7900XTX, ça se débrouille bien en Ray Tracing non ? C'est du RDNA3 ? J'suis un peu perdu sur les progrès d'AMD en la matière !
J'ai qu'une hâte : lancer Cyberpunk 2077, un des rares jeux en DLSS 3.0 ! Je sens que ça va être magique (ou que mon CPU va m'envoyer chier lol) !
Et bien j'ai changé pour une 4070ti ... Pfiou la différence sur les jeux utulisant les techno nVidia ! Sur les autres aussi biensur !
Jouer en natif ça n'a plus de sens, le DLSS fait même office d'antialiasing dans Fortnite (genre les lignes ou les cheveux sont plus nets qu'en natif avec du TAA par exemple) !
C'est très prometteur et c'est cool que AMD suive avec le FSR. Ca augure du bon pour l'avenir du jeu vidéo, car je t'avoue que la course à la résolution, ça me saoulait tellement. J'imaginais déjà qu'on allait jouer au même jeu en bavant sur The Witcher 3 parce qu'il était en 8K 120 fps, j'avais envie de gerber.
Là, les ressources peuvent aller ailleurs
Mais ce qui est "amusant" c'est que sur "Watchdog Legion" j'ai beau changer de résolution mes fps bougent pas... c'est bien que ce jeu est "CPU limited".
C'est sur que pour toi tu vas redécouvrir chaque jeu ou le DLSS est présent, entre un meilleur confort visuel et un boost de fps !
D'ailleurs ce que j'ai fait aussi c'est que sous windows j'ai changé la fréquence d'utilisation du moniteur à bien plus que 60fps, mon moniteur allant jusqu'à 144, ce qui fait que le défilement sur les pages, le déplacement des fenêtres tout ça rend windows aussi plus "fluide" et c'est agréable
La carte ne consomme rien en énergie (j'suis à 11 watts tout de suite la mdrr), l'alim de mon PC c'est une 300 Watts, franchement c'est ptet plus cher qu'AMD mais le travail d'optimisation est fou, surtout niveau conso et chauffe.
"Dans le cas de la GeForce RTX 4060, le TDP est de 115 W seulement, contre 170 W pour la RTX 3060, soit une baisse de 32,3 %."
T'imagines un peu la dinguerie O_o ! Du coup j'en ai pris une minuscule j'vais me faire un de ces mini PC prochainement, ça ira bien avec ma ROG ALLY
Entre le Z1 Extreme et la 4060, j'crois que l'industrie des semiconducteurs se réveille enfin
- J'mets toutes les options à fond sur Cyberpunk 2077, y compris le Path Tracing - 9 fps
- J'active toutes les options du DLSS 3.0. - 50 fps.
A ce train là, ce n'est même plus de la technologie, c'est littéralement de la magie.
Le tout en consommant tranquille 110 Watts, et en étant bottle neck (léger) par le CPU (on est à 86% de la carte utilisée).
MDR.
https://youtu.be/RAWBdZPSJDU
J'comprends que quand on a acheté une RTX 3080 et que le DLSS 3.0 n'est pas compatible, on l'a de travers dans la gorges, mais force est de constater qu'avec ce genre de technologie, j'ose même pas imaginer les rendus qui seront possibles sur une RTX 4070 / 4070 Ti ou 4080 une fois que cela sera pris en compte dans le développement de jeux ! Et plus y'aura de joueurs avec des RTX 4XXX, plus ça sera rentable de faire des projets profitant vraiment de ces cartes (c'est le même soucis pour le RDNA 3 de la ROG ALLY d'ailleurs si elle veut décoller) ^^ !
Merci pour tes commentaires en tout cas, ça fait plaisir
Les deux autres jeux que j’ai qui en profitent sont The Witcher et Harry Potter, je te conseille de tester si tu les as !
Et merci aussi
Regarde ce que fait une 6600 à 200 balles sur cyberpunk :
http://www.youtube.com/watch?v=VL2jBNSYXMM
Par contre entre une RX 6600 et une RTX 4060, y'a même pas match pour moi. Sauf à comparer sur d'anciens jeux sans RT ni DLSS mais bon j'ai acheté ma carte pour l'avenir (et streamer), pas pour rejouer à The Witcher 3, Death Stranding et Skyrim :/ Ah la limite, on m'aurait dit une RX 7600, j'aurais commencé à zieuter...
Après, pour 200€, ouais, la RX6600 fait le taff', mais bon, si c'était pour changer ma GTX 1660 Ti pour une RX6600 et continuer de passer mon temps à jouer à Fortnite en désactivant Nanite, l'intérêt était vraiment nul :/
La vraie rivale de la rtx4060, c'est la 6750xt. Même prix.
Mais pas les même performances. Et 12go de vram.
La 7600 n'est pas interessante a mes yeux.
T'as déjà touché au logiciel adrenalin ? C'est de la bombe.
netero Oui... Mais personnellement, ça me gènerait d'être sur du RDNA2 quand le RDNA3 est dispo sur le marché
Alors évidemment, pour l'instant une 6750XT reste avantageuse, mais les RDNA3 (RX 7XXX) pourraient, à l'avenir, avoir l'avantage.
Mais bon, c'est le même genre de spéculation que si le DLSS 3.0 se répands dans tous les jeux, alors les RTX 4XXX auront un avantage considérable sur toute la gamme et sur AMD.
Sinon la 6750XT était vendue 650 € et n'est plus produite ni en vente. La RX 7600 est vendue 335 € avec le jeu Starfield offert. Pour moi, les 2 cartes ne sont pas dans la même gamme, et la RX 7600 est la vraie rivale de la RTX 4060, même gamme de prix et même disponibilité
Adrenalin, je teste sur ma ROG ALLY, mais je trouve RTX Broadcast + Geforce Experience au-dessus (pour le streaming), surtout au niveau du fond vert virtuel ! J'ai aussi une utilisation CPU élevée je trouve sur le noise suppression en streaming, alors que le CPU de ma ROG ALLY pulvérise mon i5 9400F, mais je dois encore faire des tests ^^ !
Sinon, niveau réglages pour les jeux, Adrenalin est au dessus, avec par exemple le RSR qui peut être appliqué à n'importe quel jeu, là ou chez Nvidia t'es obligé d'avoir l'option DLSS implémenté par l'éditeur quoi...
Le seul jeu que j'ai trouvé avec du wave64 c'est Fortnite :/ Du coup, t'as des trucs marrant comme le fait que Lumen et le Ray Tracing de chez Epic Games fonctionne très bien sur la 7900xt/x, comme sur la 4080 / 4070 Ti !!! : https://www.reddit.com/r/AMDHelp/comments/13bwih2/lumen_hw_rt_is_basically_runs_equally_on_rdna_3/
Comme je disais, du coup, c'est vraiment encourageant pour l'avenir, mais bon, on ne peut pas savoir comment ça va se passer. En théorie, les jeux Unreal Engine 5 devraient être "automatiquement" optimisés
Mais bon, après, si tu joues qu'a des jeux actuels ou passé, c'est sûr qu'économiser en prenant une carte d'occasion, ça reste la "best" solution. Personnellement, j'suis un technophile, j'aime étudier justement ces nouvelles possibilités et les vulgariser
J'sais pas, sur la route, je déteste vraiment cet effet, j'pense qu'ils auraient du doser un peu quand même. Après c'est sympa à JigJig Street, mais sincèrement, j'vois pas trop de différence entre Ultra / Psycho et Path Tracing, sauf à activer et desactiver les modes RT et jouer au jeu des 7 erreurs (ou à vérifier le nombre de FPS lol).
Mais...
AMD devrait développer un "Frame Generation" en plus de son FSR. Avec l'architecture RDNA 3 ils pourraient avoir une vraie avance sur Nvidia je pense !
Du coup, c'est vraiment top pour afficher un jeu avec un niveau de détail où ta carte est à genoux (genre à 30 fps). Mais sur une carte comme une RTX 4090, j'sais pas vraiment si c'est utilisable sur Cyberpunk 2077. Bon après, tu me diras que si derrière t'as un Core i9 haut de gamme, ça passe, mais après y'a la question de savoir si y'a un intérêt de jouer au jeu en 200 fps à un moment...
Après, perso, j'aime bien cette approche et ça n'ajoute pas vraiment de latence perceptible (pas plus qu'une manette PS4 en Bluetooth quoi).
DF en parle trop bien ici, j'sais que tu parles anglais
/>
Et ca tape dans une 4060ti aussi.
J'ai pas suivi les 7000. Sauf la x600. Oai rdna3. Oai.
Sur ma vega, j'avais deja accès au fsr. Ils l'ont rendu disponible sur les cartes nvidia aussi. Ce ne sera plus le cas pour la "derniere" version.
Pour ça que j'attends.
Cela dit, la carte dépasse tous mes espoirs, et en vrai on est à un tel niveau de puissance que n'importe quel jeu peut être joué dans de très bonnes conditions actuellement. J'ai eu un commentaire sur ma chaîne YouTube qui rappelait que dans certains pays, même acheté une Switch, c'est hors de prix (venez au Brésil voir comment ça se passe).
Pour le FSR, ça fonctionnait effectivement sur ma GTX 1660 TI, mais j'ai vu que Epic Games n'utilise plus le FSR mais le TSR dans Fortnite. J'en conclus donc que même si le FSR 3 (?) ne sera pas disponible sur nvidia, ça ne sera pas un souci.
Après... J'pense que AMD avait fait cela pour que le FSR soit plus répandus que le DLSS dans les jeux (car option qui fonctionne pour tout le monde et pas juste une partie du marché, sans compter les Xbox Series et les PS5), mais du coup ça ne donnait aucun avantage d'acheter une carte AMD (au contraire, genre sur ma 4060, j'peux choisir entre TSR / FSR et DLSS. Il me semble même que le Xe d'Intel est disponible j'ai pas testé).
Perso la 4060 Ti, en 16 Go là, j'trouve ça vraiment trop cher par contre...
Mais du coup tu n'aimes pas la nouvelle gamme d'AMD ? Le RDNA 3 n'a pas l'air d'avoir la côté, j'ai vu les stats sur steam c'est genre 80% des cartes graphiques c'est du NVIDIA... En tous cas, j'suis ultra satisfait moi, franchement pour 300 boules j'trouve ça complètement ouf, j'me souviens encore des RTX 2060 à 700 balles que je trouvais sur le net lol !
Hum.
Evidement que tu voulais une carte qui consomme peu, avec une alim de 300 w. On decouvre enfin la vraie raison * illumination *
En même temps t'as dit que tu voulais tout changer aussi
Pas fan, nop. Les stats de steam, oai. Pas fiable.
Si t'es content c'est le principale.
Mais tout se basera sur le boitier que je trouverais. Pour l'instant je n'ai rien trouvé qui me plaisait. Le but étant d'avoir un boitier 1 Slot + une RTX 4060, tout le reste sera brodé autour. Et ce projet, je l'ai littéralement en tête depuis même pas 8 heures xD !
Après, en activant le DLSS sur Death Stranding par exemple, la conso tombe très bas avec en plus une charge GPU à 25%. Après j'suppose que c'est pareil sur une 3060 mais je n'en ai jamais eu ^^'
Après me suis trompé c'était 15% amd / 75% nvidia
Quand je vois dans les propos de chez les numeriques, ceci :
Nvidia recommande d’ailleurs une alimentation de 550 W, et le concepteur de GPU voit large. Si vous optez pour une alimentation avec un rendement élevé, vous pouvez facilement réduire cette valeur à 450 W.
Je discredite a ce moment la leur test. Sérieusement ? Est ce que j'argumente ?
Encore une fois, l’efficacité énergétique des RTX 40 est impressionnante. La GeForce RTX 4060 consomme 32 % moins que les RTX 3060 et RX 7600, tout en étant respectivement 29 et 6 % plus performante que ces deux modèles.
Est ce qu'une CG peut s'underclock ? C'est la 6600 qui est à comparer, à ce moment là. Est ce que leur pourcentage veut dire seulement quelque chose ?
Sa mère, je regrette les tests poussés d'hardware.fr. T'appelle ça complet ? Un test, c'est minimum 12 pages x 3.
Le comptoir du hard a failli couler. Ils en avaient marre de la surconsommation. Heureusemnt, y'a eu des remplacants.
J'recommanderais à personne du 300 Watt, j'le fais juste parce que c'est ce que j'ai et que j'ai la flemme de racheter une alim, si elle claque j'prendrais une mieux dimensionnée.
Après, moi j'suis grand public, ça me suffit comme test, et j'hésitais avec la RX 7600 justement, donc ça tombait à pic.
Change asap d'alim. L'ideale c'est de se situer des les 50%. Si elle a pas les sécurités nécessaire, et j'emets un gros doute, c'est tout ton pc qui va cramer. Et au revoir ta rtx.
Parce que je suppose que la cm aussi est bas de gamme.
Cest déjà en cours de dev et ça doit arriver cette année : https://www.cowcotland.com/news/83925/amd-annonce-egalement-le-fsr-3-le-hypr-rx-le-media-engine-et-le-smartaccess-video.html
Et contrairement à la solution de Nvidia comme dhab ça sera open source chez AMD : https://videocardz.com/newz/amd-confirms-fidelityfx-super-resolution-3-fsr3-will-be-open-source
Reste à voir maintenant si cette solution concurrente d'une sera aussi efficace que le DLSS3 et d'autre part si il sera où non compatible avec toutes les cartes graphiques contrairement au DLSS3 qui n'est compatible qu'avec une poignée de jeu et uniquement sur la génération 40 (moi qui avait une 3080 ça m'a bien foutu les nerfs).
Mais oui AMD a encore du retard sur Nvidia sur le ray tracing et aussi sur le dlss/fsr. Mais pour les jeux qui n'utilisent pas le RT soit 99.9% des jeux AMD est vraiment au top et n'a rien à envier à son concurrent vert bien au contraire.
Et pour le Ray Tracing, rien n'est perdu, les performances AMD sont actuellement aussi bonne sur du Lumen en RDNA3 que les cartes Nvidia (ne me demandez pas par quel miracle), donc même là, ils devraient se rattraper.
Et FSR 3, même s'il n'égale pas ce que fait Nvidia (ça me parait compliqué, Nvidia s'appuie sur de l'hardware), s'en rapprocher devrait suffire à proposer l'alternative à ceux qui aiment l'IA upscaling. S'ils arrivent à de bons résultats visuels avec du 75% de résolution upscale, ça serait déjà pas mal en vrai !
Lumen ne se base pas sur du RT Hardware ! C'est pour ca que les cartes AMD s'en sortent si bien ! Lumen peut quand même utiliser les coeurs RT pour faire leurs rendus, mais sur Fortnite, pour une raison qui m'échappe, activer le RT HARDWARE pour Lumen, ça me fait perdre en FPS -_- !
Bref, tout ça pour conclure : Si Lumen devient la norme face au RT classique, hé bien même dans ce domaine AMD pourra plus que largement tenir tête à Nvidia (ah ah) !
"Lumen also comes with hardware ray-tracing, but most developers will be sticking to the former, as it’s 50% slower than the SW implementation even with dedicated hardware such as RT cores."
Bordel Lumen... J'ai tellement sous-estimé cette technologie ! Insomniac pour SpiderMan doivent voir un sorte de Lumen encore plus optimisé et spécialisé dans les reflets du coup ! C'est interessant ^^ !