Wouaaaaaaaaaaa avec les cœurs RTX Nvidia montre encore des muscles avec des performances incroyable sur l'update 2.0 de Cyberpunk 2077 ! J'suis hypé comme JAMAIS pour la mise à jour Phantom Liberty ! #CDProjecktAreTheBest
J’ai recommencer le jeu enfin sur ps5 avec la 2.0 c’est tellement différent de ce que j’ai pu jouer y’a genre 1 an et demi quel jeu de malade j’en suis a 10h sans m’en rendre compte de comment le temps a passer
testé ce jeudi soir sur PC donc patch 2.0 avec DLSS 3.5 (dernier driver Nvidia du 21/09)
Pour activer toutes les options raytracing, il ne faut pas oublier de mettre les fonctions expérimentales (j'ai cherché...) dans le jeu en plus du dernier driver.
En mode qualité, ça tourne à plus de 80 ims 4K et tout en ultra sur ma RTX 4090 et comme dire, c'est incroyablement beau.
La différence technique est subtile avec les nouvelles fonctions RT mais c'est juste fou en terme de beauté et aussi de gain de FPS.
Totalement dingue.
C'est juste une vitrine très impressionnante sur l'avenir des JV.
Nvidia maitrise totalement son sujet et Cd Projeckt sait parfaitement utiliser leurs librairies sur ce jeu.
J'y retourne dès que possible !
Petite question, n'ayant pas d'écran VRR (je branche le pc sur un tv, hdmi 2.0), si j'ai bien compris je ne peux pas utiliser le DLSS 3.0 (car j'ai une latence de fou furieux avec... ou alors faut que coupe la vsync... quand j'essaie de la faire fonctionner par la panneau nvidia, bah comme je l'ai dit la latence est enorme et ce malgre le nvidia reflex active...) ?
c'est pareil pour le DLSS 3.5 j'imagine?
si quelqu'un peut m'aiguiller merci
roreaver Le DLSS3.5 est une plus une évolution du DLSS2.0 que du 3. Il sert à améliorer les performances et surtout la qualité des effets de Ray Tracing (DLSS Ray Reconstruction dans les menus du jeu). Le Frame Generation peut être activé ou non. Par contre ca m'étonne que le fait d'activer le vsync te rajoute énormément de latence.
c'est bizarre que ça impacte autant la latence.
Oui ça l'impacte mais normalement très faiblement
et la vsync c'est le mal !
Déjà quand je vois HDMI 2.0, ça me fait peur...
Je joue avec le PC sur une OLED LG de 65 pouces avec les 3 HDMI en 2.1 et G Sync.
J'ai dans les 10 ms de retard d'affichage ce qui est dans le top des télés.
Déjà, es tu en mode jeu ? (ça parait bête mais c'est un peu la base)
Et surtout quelle est la réso de ton PC sur la télé ?
C'est quelle marque de télé ? sa fréquence ?
Car certaines sont justes monstrueuses en input lag
Merci pour vos retours à tous les 2, je vais essayer cela...
Sinon effectivement comme je n'ai que de l'hdmi 2.0 je n'ai pas accès au gsync, freesync et autre vrr...
C'est une OLED LG, signature G6 (de 2017 je pense)
Oui oui je suis bien en mode jeu sinon l'input lag est forcément très fort avec toutes les "améliorations" d'image de la tv...
et tu peux me dire en quoi c'est bien mieux le gsync. Je comprends que l'un c'est l'ordi qui se bride pour être à la même frequence que la tv et de l'autre c'est la tv qui suit ce que le pc envoie...
mais déjà bah cela fait que tu as des yoyo au niveau des fps alors, sauf si tu bloques alors la sortie à 60 fps par ex mais alors... je ne vois pas la difference?
shambala93 NVIDIA ne fait tout simplement pas d'APU, si ce n'est le Tegra (c'est ce qu'il y a dans la Switch mais c'est une très vieille puce), c'est destiné à du mobile pas à du PC ou des consoles de salon et surtout chez NVIDIA, c'est du ARM et les consoles de Sony et Microsoft tournent sur du X86 et à l'heure actuel tu peux avoir des problèmes de rétro entre les deux surtout quand sur la gen précédente tu était déjà sur du X86, c'était se compliquer la vie.
Après on sait via les leaks qui Microsoft réfléchi à passer sur de l'ARM sur ça prochaine console mais AMD est techniquement prêt pour ça donc il y a peu de chances qu'ils changent et il faudrait que NVIDIA soit intéressé par le fait de faire des APU pour répondre à leurs besoins et pour le moment c'est pas un marché où ils sont très présents.
Sinon cette vidéo est très bien faite pour montrer sur quoi le RR à encore besoin de progresser en particulier sur le ghosting et d'autres problèmes mais bon ça va s'améliorer avec le temps.
Clair que de rester chez AMD ca en devient presque suicidaire tellement ils sont à la rue coté techno & perf :x
je suis curieux de savoir si les leak switch 2 sont vrais et qu'ils sont toujours chez nvidia.
Pour activer toutes les options raytracing, il ne faut pas oublier de mettre les fonctions expérimentales (j'ai cherché...) dans le jeu en plus du dernier driver.
En mode qualité, ça tourne à plus de 80 ims 4K et tout en ultra sur ma RTX 4090 et comme dire, c'est incroyablement beau.
La différence technique est subtile avec les nouvelles fonctions RT mais c'est juste fou en terme de beauté et aussi de gain de FPS.
Totalement dingue.
C'est juste une vitrine très impressionnante sur l'avenir des JV.
Nvidia maitrise totalement son sujet et Cd Projeckt sait parfaitement utiliser leurs librairies sur ce jeu.
J'y retourne dès que possible !
c'est pareil pour le DLSS 3.5 j'imagine?
si quelqu'un peut m'aiguiller merci
Edit : https://www.reddit.com/r/nvidia/comments/10ulx5b/nvidia_frame_generation_vsync_how_to_fix_latency/
Essaye ca.
c'est bizarre que ça impacte autant la latence.
Oui ça l'impacte mais normalement très faiblement
et la vsync c'est le mal !
Déjà quand je vois HDMI 2.0, ça me fait peur...
Je joue avec le PC sur une OLED LG de 65 pouces avec les 3 HDMI en 2.1 et G Sync.
J'ai dans les 10 ms de retard d'affichage ce qui est dans le top des télés.
Déjà, es tu en mode jeu ? (ça parait bête mais c'est un peu la base)
Et surtout quelle est la réso de ton PC sur la télé ?
C'est quelle marque de télé ? sa fréquence ?
Car certaines sont justes monstrueuses en input lag
Sinon le lien de Bennj, c'est le bien
Sinon effectivement comme je n'ai que de l'hdmi 2.0 je n'ai pas accès au gsync, freesync et autre vrr...
C'est une OLED LG, signature G6 (de 2017 je pense)
Oui oui je suis bien en mode jeu sinon l'input lag est forcément très fort avec toutes les "améliorations" d'image de la tv...
et je joue en 4K (j'ai une 4090).
aie
il ne te reste plus que la solution des 3fps
tu nous diras si ça marche
mais déjà bah cela fait que tu as des yoyo au niveau des fps alors, sauf si tu bloques alors la sortie à 60 fps par ex mais alors... je ne vois pas la difference?
Après on sait via les leaks qui Microsoft réfléchi à passer sur de l'ARM sur ça prochaine console mais AMD est techniquement prêt pour ça donc il y a peu de chances qu'ils changent et il faudrait que NVIDIA soit intéressé par le fait de faire des APU pour répondre à leurs besoins et pour le moment c'est pas un marché où ils sont très présents.
Sinon cette vidéo est très bien faite pour montrer sur quoi le RR à encore besoin de progresser en particulier sur le ghosting et d'autres problèmes mais bon ça va s'améliorer avec le temps.
https://www.youtube.com/watch?v=zZVv6WoUl4Y
je suis curieux de savoir si les leak switch 2 sont vrais et qu'ils sont toujours chez nvidia.