pas loin de la mienne, d'ailleurs , même si elle date maintenant (donc elle tout de même moins puissante -fin 2010 sauf la CG-), mais c'est un bon investissement, elle carbure toujours ...
jaune Mouai, c'est pas ça qui change, c'est surtout la carte graphique, mon i5 3570 ne monte jamais à 100% dans le jeu... On va dire que le i7 sur vitaminé est bien pour les SLI de GTX 980, mais pour les cartes graphique comme la mienne, type HD 7970, le processeur ultra puissant ne change rien à la fluidité. Et les SSD, ou la ram ne change que les temps de chargements.
jonnaille Mouais, si on reste dans du 8Go de DDR3 et un i7 performant je veux bien mais celui qui a un proc' de 4-5 ans et 4Go il arrivera à rien même avec une 980.
C'est vraiment n'importe quoi l'optimisation sur ce jeu, si on regarde ce tableau on peut voir qu'avec un carte graphique haut de gamme vieille de 1 an on est déjà à la ramasse. Avoir une 980 pour être tranquille c'est n'importe quoi.
jaune 8 Go minimum, mais le 1333 mhz suffi et ne change rien à la fluidité du jeu. Processeur i5 2500k suffi également si tu n'as pas une carte graphique de fou.
Comme dit, avec mon i5 3570 et ma HD 7970 oc, je ne suis aps encore cpu limited avec ce jeu. Mais si je prend une GTX 980, je le serais certainement. Plus tu as de fps et plus il te faux des ressources CPU.
Bref, c'est juste pour dire que si ils avaient fait ces test avec un i5 3570, et 8 go de DDR3, ils auraient eu les mêmes résultat pour la HD 7970 et je pense qu'ils auraient eu les même résultat avec la R9 290x aussi. Au delà, ils auraient été sans doute CPU limited oui. Lorsque je joue au jeu, mon processeur est souvent à 60% d'utilisé, et il monte au max à 80%, il y a encore de la marge...
ouais !!!!
je joue tranquille au dernier cod, j'ai jouer ryse pepere en 1080p 60fps
et j'en passe
mais dans le petit monde de ubisoft, je joue en 20 fps lol
Marcello
et c'est quoi l'interet de ce site de troller ?
tout le monde troll le gentil ubisoft avec toi
marcellojolimitaine J'suis d'accord, j'ai des doute par rapport à ce tableau, le jeu tourne chez moi à bien 40 fps de moyenne, je descend rarement à 25 fps, et je monte des fois à 60 fps.
marcellojolimitaine Ha ouai ! C'était quoi ces mec qui disaient que ça tournais à 30 fps avec une 970 ?!!! Et oui, l'antialias, si les développeurs te laissent choisir du MSAA 64X, les mec avec leur SLI de GTX 980 ils vont mettre tout à fond, ils vont ramer à 15 fps, et ils vont râler En gros, avec la GTX 970, tu joue à 60 fps constant en activant le v-sync, ça me parait intéressant
ouais, t'as raison, c'est un peu ça.
Avec de la mauvaise foi, on peut raconter tout et son contraire.
à ces résos-là, de toute façon, l'anti-alias minimum (qui ne consomme rien) permet de rendre le tout plus harmonieux sans problème ...
L'hyper anti-alias aujourd'hui, j'ai du mal à comprendre (et pourquoi pas sur du 4K ?)
Je rappelle, mon écran est en 1080 et tout est nickel au niveau de l'image.
jaune Je pense que c'est possible si tu bidouilles, mais je ne sais pas ou on peu le faire... Mais je trouve que la v-sync permet déjà de limiter les chûtes de fps.
En même temps, quand tu regarde ce graphique, tu ne vois que des sli de Nvidia en première position, ils n'ont pas fait de crossfire de AMD, la première amd, c'est la R9 290x qui est environ au même niveau de la GTX 970. Et la R9 290x coute 50 euros moins cher que la GTX 970
jaune Si tu peux chez Nvidia, tu vas dans le panneau de configuration nvidia, gérer les paramètres 3d, synchronisation verticale, et tu choisis adaptatif ou adaptif.
Cheers!
link80 donc si j'ai bien compris si on a du 60fps constant on laisse la vsync dans les options du jeu si on est entre 30-60fps il vaut mieux désactiver la vsync dans le jeu et l'activier via le panneau nvidia ?
evilchris yep c'est ça, par contre entre 30 et 60, il faut mettre le mode "adaptif", et non "on".
Après que tu l'actves ou le désactive dans le jeu ne changera rien, nvidia forcera son système
Le mec qui a acheté une TITAN il y a 6 mois a plus de 800€, peine a faire du 60 fps
Quand je vois ce tableau, je me demande pourquoi il n'y a pas de sli AMD ?
UBI les rois de l'optimisation sur PC
jonnaille je viens de commencer unity, le jeu saccade carrément chez moi, il ram mais c la base mais en plus il saccade aussi c'est horrible genre il sarrete un quart de seconde pis reprends et ainsi de suite...c'est injouable serieux..obligé dattendre les patch je crois
jonnaille mais c'est pas ouf juste ta une toute petite saccade tte les 10-15 secondes, je sais pas si c a mettre au crédit d'ubisoft, et le frame rate horrible ca oscile entre le 55 et le 25 ca ne fait ke de chuter
jonnaille voila ca s'apparente a du lag, c leger mais ca fait chier quoi, je pense pas que ce soit la config car c'est le seul jeu ou j'ai ca, meme ryse tournait a 1080p/60fps sans l'aliasing
vysejonnaille perso pour l'instant j'ai du 60 fps constant sauf dans les cinématiques avec des chutes a 40fps et des chutes a 57fps lors des synchronisations donc très satisfait le tout en ultra avec sync juste lantialiasing en fxaa au lieu de txaa le jeu est sublime sauf les effets de popping un peu honteux
Sinon c'est mort pour mon écran 1440p xd, je vais repasser au 1080p ^^
pas loin de la mienne, d'ailleurs , même si elle date maintenant (donc elle tout de même moins puissante -fin 2010 sauf la CG-), mais c'est un bon investissement, elle carbure toujours ...
Comme dit, avec mon i5 3570 et ma HD 7970 oc, je ne suis aps encore cpu limited avec ce jeu. Mais si je prend une GTX 980, je le serais certainement. Plus tu as de fps et plus il te faux des ressources CPU.
Bref, c'est juste pour dire que si ils avaient fait ces test avec un i5 3570, et 8 go de DDR3, ils auraient eu les mêmes résultat pour la HD 7970 et je pense qu'ils auraient eu les même résultat avec la R9 290x aussi. Au delà, ils auraient été sans doute CPU limited oui. Lorsque je joue au jeu, mon processeur est souvent à 60% d'utilisé, et il monte au max à 80%, il y a encore de la marge...
Et soit dit en passant, Ubi et l'optimisation ca devient du put. de gros n'importe quoi.
non mais, encore une fois, ce tableau n'est totalement représentatif, Ma (vieille) 460 n'y est et pourtant ça marche sans problème ...
Dans cette histoire, les trolls ont au final bien plus de torts que la compagnie elle-même ...
En même temps, c'est le but du trollage ...
je joue tranquille au dernier cod, j'ai jouer ryse pepere en 1080p 60fps
et j'en passe
mais dans le petit monde de ubisoft, je joue en 20 fps lol
Marcello
et c'est quoi l'interet de ce site de troller ?
tout le monde troll le gentil ubisoft avec toi
ouais, sur ma 970, j'avais grosso-modo du 70fps, mais encore une fois je ne force jamais sur l'antialias ...
ouais, t'as raison, c'est un peu ça.
Avec de la mauvaise foi, on peut raconter tout et son contraire.
à ces résos-là, de toute façon, l'anti-alias minimum (qui ne consomme rien) permet de rendre le tout plus harmonieux sans problème ...
L'hyper anti-alias aujourd'hui, j'ai du mal à comprendre (et pourquoi pas sur du 4K ?)
Je rappelle, mon écran est en 1080 et tout est nickel au niveau de l'image.
pour une fois d'accord avec toi et l'antialiasing
je m'en sert jamais , je trouve que ca rend l'image moins vivante moins scintillante et bouffe des fps pour pas grand chose
bien sûr, je regrette malgré tout pour le motion-blur, je trouve que c'est souvent un vrai plus ... mais à quel prix.
Nan, AMD est juste à la ramasse face à NVidia depuis quelque temps...
ça changera.
3e position avec ma GTX970 4Go
En sachant que je peux encore l'overclocker
reza idem je ne sais pas quelle marque tu as mais mon Asus tourne dans un silence à peine croyable.
En même temps, quand tu regarde ce graphique, tu ne vois que des sli de Nvidia en première position, ils n'ont pas fait de crossfire de AMD, la première amd, c'est la R9 290x qui est environ au même niveau de la GTX 970. Et la R9 290x coute 50 euros moins cher que la GTX 970
Cheers!
Après que tu l'actves ou le désactive dans le jeu ne changera rien, nvidia forcera son système
http://www.tomshardware.fr/articles/radeon-hd-7990-GeForce-GTX-690,2-16-10.html
Quand je vois ce tableau, je me demande pourquoi il n'y a pas de sli AMD ?
UBI les rois de l'optimisation sur PC
http://www.geforce.com/whats-new/guides/assassins-creed-unity-graphics-and-performance-guide#assassins-creed-unity-nvidia-geometryworks-advanced-tessellation