lamap tu parles d'expérience ou de théorie ? Car je n'ai jamais eu de problème avec un 144hz et à part traîner sur des forums il y a toujours un pelé qui râle pour rien au final, ce n'est pas un problème majeur.
Déjà il vaut mieux de base prendre un 144hz pour jouer pour avoir le max de fps avec du VRR et de deux si jamais problème il y avait tu peux choisir généralement de locker ton écran à 120hz si nécessaire.
Pour du jeu vidéo, il n'y a pas de "judder" et pas de problème de multiple puisque le framerate est créé.
Le judder intervient pour le cinéma lorsqu'un film est enregistré en 24fps et qu'ensuite il faut le convertir en autre chose, type 30fps, il faut alors étendre la durée de certaines frames ou autre.
Dans un jeu vidéo, on ne multiplie pas un framerate de 30fps, on créé un nouveau framerate, le jeu créé les images adéquates et vous pouvez complètement figer le framerate à 53fps que cela ne va pas créer de judder (et les parties vidéo sont de toute façon affichés sur le framerate d'origine, le jeu redescend souvent à 30fps pour afficher la vidéo).
Mais je suis preneur d'une plus longue explication si quelqu'un maitrise parfaitement le sujet.
nyseko il me semble bien pourtant que le shuttering est bien la résultante d une variation de frame rate que le diffuseur n accepte pas ou à du mal à gérer. D ou l Introduction de technologie commence Gsync ou le VRR mais je me trompe peut être.
L'oeil humain ne fonctionne par en hertz, mais si on dit qu'il peut percevoir jusque a 300hz, en vérité il n'y a qu'une toute petite minorité de personne capable de le percevoir. C'est très marketing tout ça.
hizokanysekoashern Alors j'y connais pas grand chose, mais je peux juste dire que j'ai un écran 165 Hz et il peut fonctionner en 48 Hz (VRR / FreeSync) sans que je ne vois de problème particulier.
Et pourtant, 48 Hz (dans la liste des fréquence, l'écran passe bien en 48Hz) n'est pas un multiple de 165 Hz.
Je vais me renseigner un peu plus. Mais je ne pense pas que le Freesync impose de fonctionner à une division de la fréquence originale de l'écran, ça n'aurait aucun sens puisque l'écran est sensé adapter sa fréquence à la carte vidéo ?!
Mais sincèrement, entre 60 et 120, je ressens encore la différence avec une sensation de fluidité supérieure sans que ça ne soit indispensable (bien qu'agréable sur DOOM par exemple, mais sur Ori Osef total).
Au dessus de 120 (c'est à dire 144Hz ou 165Hz) je ne vois strictement aucune différence - mais bon de base, j'suis pas très sensible à ça ^^ !
Donc je ne vous conseille pas d'investir dans un écran 360 Hz (par exemple), prenez du 4K 120 hz à la place, pour moins cher, c'est amplement suffisant. Sauf si vous est un pro gamer bien sur.
ashern c'est de la théorie et de toute façon c'est quelque chose d'assez subtile à décerner à l'oeil nu mais même si ça ne crève pas les yeux ça reste quelque chose de présent, aucun doute là dessus, c'est impossible que toutes les frames d'une vidéo en 60fps aient la même durée sur un écran en 144Hz.
Et puis y'a d'autres avantages, perso j'ai un écran 1440p HDR10 (8bits+FRC) avec display port 1.2 donc si je veux un signal 10 bits c'est 120Hz max sinon faut redescendre à 8 (c'est une limitation de bande passante du DP1.2 pas de l'écran lui même).
En plus quand je passe au 170Hz même en idle la fréquence du GPU ne redescend jamais à son minimum.
Bref moins de judder, moins de banding, moins d'énergie consommée vs quelques Hz en plus, je crois que la question est vite répondue.
Déjà il vaut mieux de base prendre un 144hz pour jouer pour avoir le max de fps avec du VRR et de deux si jamais problème il y avait tu peux choisir généralement de locker ton écran à 120hz si nécessaire.
Tu me diras combien ça fait quand tu multiplies 24 par 6.
Et aussi comment tu fais pour mettre multiple parfait dans la meme phrase en citant 24 30 et 60.
Le judder intervient pour le cinéma lorsqu'un film est enregistré en 24fps et qu'ensuite il faut le convertir en autre chose, type 30fps, il faut alors étendre la durée de certaines frames ou autre.
Dans un jeu vidéo, on ne multiplie pas un framerate de 30fps, on créé un nouveau framerate, le jeu créé les images adéquates et vous pouvez complètement figer le framerate à 53fps que cela ne va pas créer de judder (et les parties vidéo sont de toute façon affichés sur le framerate d'origine, le jeu redescend souvent à 30fps pour afficher la vidéo).
Mais je suis preneur d'une plus longue explication si quelqu'un maitrise parfaitement le sujet.
Sinon, non çà sert à rien 360
A moins encore de gardé l'écran fixe pour voir une (légère?) différence.
Et pourtant, 48 Hz (dans la liste des fréquence, l'écran passe bien en 48Hz) n'est pas un multiple de 165 Hz.
Je vais me renseigner un peu plus. Mais je ne pense pas que le Freesync impose de fonctionner à une division de la fréquence originale de l'écran, ça n'aurait aucun sens puisque l'écran est sensé adapter sa fréquence à la carte vidéo ?!
Mais sincèrement, entre 60 et 120, je ressens encore la différence avec une sensation de fluidité supérieure sans que ça ne soit indispensable (bien qu'agréable sur DOOM par exemple, mais sur Ori Osef total).
Au dessus de 120 (c'est à dire 144Hz ou 165Hz) je ne vois strictement aucune différence - mais bon de base, j'suis pas très sensible à ça ^^ !
Donc je ne vous conseille pas d'investir dans un écran 360 Hz (par exemple), prenez du 4K 120 hz à la place, pour moins cher, c'est amplement suffisant. Sauf si vous est un pro gamer bien sur.
Et puis y'a d'autres avantages, perso j'ai un écran 1440p HDR10 (8bits+FRC) avec display port 1.2 donc si je veux un signal 10 bits c'est 120Hz max sinon faut redescendre à 8 (c'est une limitation de bande passante du DP1.2 pas de l'écran lui même).
En plus quand je passe au 170Hz même en idle la fréquence du GPU ne redescend jamais à son minimum.
Bref moins de judder, moins de banding, moins d'énergie consommée vs quelques Hz en plus, je crois que la question est vite répondue.
Donc 144hz ou 120Hz, on s'en moque, ce qui compte c'est la technologie G-Sync (mais tous les écrans gamers l'ont maintenant, je crois).