Lords of the Fallen : les options graphiques Performance & Qualité sur consoles (PS5/XSX)
A deux mois de son lancement, CI Games se décide à dévoiler les spécificités techniques des versions consoles de Lords of the Fallen et à moins d'une MAJ future (ou de consoles mid-gen diront les cyniques), oubliez la 4K : ce sera 1440p/30FPS en mode Qualité, et 1080p/60FPS en mode Performance, sur PlayStation 5 comme sur Xbox Series.
Vous savez tout, vous pouvez retourner patienter jusqu'au 13 octobre.
Voilà à quoi ça sert, encore aujourd'hui (même pour les consoles next-gen), le mClassic. Je jouerais donc en 1080p/60fps/120Hz avec son support, pour avoir le régal des yeux sans sacrifier la fluidité. Puis de toute façon, vu qu'avec, j'ai une meilleur image qu'en 1440p grâce à l'anti-aliasing, j'attendais pas du jeu qu'il soit vraiment optimisé dans son choix de modes.
La seule chose que j'attend d'eux, c'est que le « framerate » soit solide parce qu'avec je peux pas activer le VRR. Du reste, je vous laisse à votre dilemme entre mode performance et boycott
heracles vous êtes sérieusement relou. Tu crois franchement que si ils pouvaient ils le ne feraient pas ? Ça serait quoi l'objectif ? C'est pas faute d'expliquer à droite et à gauche que un jeu comme Starfield sera sûrement un titre qui demandera beaucoup de puissance cpu, et que les consoles actuelles brident le jeu a cause de ça. Même Digital Foundry le disent mais nooooon t'as encore des mecs comme toi qui veulent apprendre leur métier à des centaines de dev : https://youtu.be/i9ikne_9iEI
La next gen commence ENFIN, c'est comme si on était à la première année, avec enfin le crossgen qui dégage, et vous êtes en train de chialer parce qu'on a du 1440p à 30FPS.
Pour rappel, sur One PS4, on avait du 720p 60FPS sur Battlefield 4 par exemple, pourtant 4 ans plus tard, Battlefront II qui lui met une misère monumentale visuellement, tourne en plus haute résolution à 60FPS.
Quand vous voulez vous comprendrez que l'optimisation ça se fait au fil de la gen, que les ressources utilisées par les dév' sont utilisées comme ils le veulent. Quand vous voulez vous comprendrez que la 4K 60FPS sur Lords of the Fallen c'est possible sur SX et PS5, au détriment d'autre chose. Quand vous voulez vous commencez à réfléchir...
« Les machines que vous avez déjà payé 500-550€ ne le feront pas tourner à 60 FPS ? Ah mais vous inquiétez pas, les versions Pro à 600 balles le feront peut-être »
piratees Je confirme. A moins de scruter le moindre pixel en zoom x 100, depuis un canapé à 3 mètres du téléviseur je vois aucune différence avec l'upscale perso.
bennj Oui ils peuvent laisser la possibilité de débloquer le framerate. On aurait eu un framerate yoyo entre 40 et 60 fps. Ils l'ont confirmé récemment qu'ils ont préféré bloquer à 30 plutôt que de faire ça.
Avec la VRR sur les écrans compatibles on aurait pas ressenti le gêne...
jamrock Merci du retour je ne le prendrais pas, les souls sont acclamés par la critique, je suis trop mauvais pour ce genre de jeu c'est plus frustrant qu'autre chose et l'envie de péter la manette
aros Ouais fin ça fait pas des miracles non plus le mclassic, quand t’a une télé qui fait déjà bien le taff, il est très léger ( et je m’en sers sur NS )
geralttw
Bah justement ! je joue pas sur une TV mais un écran PC 32 pouces/80cm), et je vois assez la différence quand je l'utilise de quand je ne l'utilise pas, pour l'utiliser aussi bien sur Switch que sur Xbox Series X.
Maintenant c'est sûr que ça va pas changer ton jeu, mais sur Devil May Cry V par exemple, je me souviens qu'il m'a permis d'y jouer sans cet effet de grain déguelasse qu'avait l'image, tout en la rendant plus clinquante. Quand je joue à Grime sur mon PC (un i5 vieillot doublé d'une GTX 1050 Ti toute aussi vieillotte), je suis heureux de pouvoir y jouer à la max en 720p upscalé en un 1080 ou 1440p réhaussé, selon que je veuille y jouer soit en 60, soit en 120 fps (un peu près), sans que ma carte graphique surchauffe. Dark Souls 3 sur Xbox (qui tourne en 900p), bah ça aide aussi le mClassic. C'est pas le rendu optimale qu'on peut obtenir sur un jeu console en 1080p, mais ça fait le taff, assez pour ne pas pester après le rendu. Puis sur des jeux déjà propres (tenant la résolution 1080p), bah il sublime le tout.
Tout ça pour dire que je mesure ce que le mClassic apporte au rendu de l'image sans l'intervation logicielle d'une télévision récente, et personnellement, il risque pas de prendre la poussière.
geralttw
Puis, petite astuce, si tu devais ne pas savoir (au cas ou, sait-on jamais), le mClassic upscale vers un 1440p boosté, que depuis le 720 et 1080p (dans les grandes lignes). Le truc, c'est que si ton téléviseur prend pas en charge la résolution 1440p, bah tu peux pas profiter de l'upscale, juste de l'anti-aliasing (à partir le 720 et 1080p seulement).
Alors sur la Switch, la question ne se pose pas tellement, puisque la console sera en 1080p, voir en 720, mais sur une Playstation 5 ou une Xbox Series, bah faut bloquer la résolution à même les paramètres console sur l'une ou l'autre résolution (et sur Xbox Series, décocher la case 4K). Le cas contraire, tu profiteras d'une meilleur colorimétrie en terme de rendu, mais rien de plus.
Mais peut-être que tu sais déjà tout ça et que je t'ai fais perdre ton temps. Si ce doit être le cas, je m'en excuse.
geralttw
Après voilà, sinon profiter d'une meilleur colorimétrie et d'une solution anti-aliasing, tu pourras pas profiter de l'upscale vers le 1440p si ta TV ne prend pas de façon native cette résolution-ci. Sur une TV, l'usage qu'on peut faire du mClassic est limité, contrairement a si tu devais l'employer à destination d'un écran PC. Moi-même j'ai mis du temps a comprendre tout ce que j'te dis là maintenant. Mine de rien, le bidule est pas facile facile à cerner...
C'est la même chose à chaque génération de console, et là c'est pire parce qu'on part de plus haut (4k). Les jeux sont de plus en plus exigeant, comme d'hab.
heracles Le VRR ne t'empêche pas de ressentir les fluctuations de d'un passage de 30 à 60fps mais uniquement d'empêcher le tearing à l'écran en synchronisant la fréquence de ton écran à celle de ta carte graphique. Après effectivement ils auraient pu le faire mais c'est pas le cas, ils préfèrent que tu ais une expérience constante à 30fps que du yoyo comme tu dis. C'est le choix du développeur.
piratees je joue principalement sur PC, avec une oled de 65" aussi et à 3m de canapé et la différence entre du 1080p natif et du 4K je la vois et pas qu'un peu. Entre du 1440p et du 4K ca je dis pas mais le 1080p vs 4K c'est flagrant. Après ca dépend clairement des jeux on est d'accord.
Tes studios ils ont des budgets pour leurs jeux BEAUCOUP plus élevés que ceux de CI Games t'as tendance à légèrement l'oublier. Ca joue LEGEREMENT dans la qualité d'un jeu.
jamrock exceptionnel ! du moins sur PS5. Grâce à la conversion PC de Ratchet & Clank Rift Apart, on a pu le constater: vitesse incomparable et framerate constant. Mark Cerny a prouvé qu'il a éliminé les goulots d'étranglement https://www.youtube.com/watch?v=VODSVVkKRD4
lez93 Le problème c’est les constructeurs qui te vendent monts et merveilles à l’annonce de leurs consoles, on y peut rien si elles tiennent pas la route.
aros Personnellement je m’en sers sur une tv oled 4K Samsung assez récente qui fait déjà bien le taff. Et j’ai étais surpris de voir qu’elle supporte le 1440p MAIS pas quand j’active le mode jeu. Je suis obligé de laisser ma Switch en simple HDMI et je dois empêcher la TV de la reconnaître comme étant une console de jeu.
Du coup ma switch est représenté sur un hdmi mais est en 1440p contre 1080p habituellement.
Mais j’ai l’impression que c’est un peu moins opti, en terme de couleur mais aussi de latence ( même si ça reste très correct ).
Par contre c’est clair que le 1440p permet de bien atténuer l’aliasing ( je l’ai principalement acheté pour voir le résultat sur tw3 et c’est franchement pas degueu en 1440p )
bennj Beaucoup de joueurs sensibles à la fluidité auraient privilégier le jeu en +40 fps.
Plus jamais je toucherais un jeu en 30 fps, c'est désagréable pour moi et je sais que nous sommes beaucoup de joueurs à être trop habitué au 60 fps minimum.
geralttw
« Mais j’ai l’impression que c’est un peu moins opti, en terme de couleur mais aussi de latence ( même si ça reste très correct). »
En terme de couleur, personnellement je vois pas le mal pour dire vrai. Le truc, c'est que je joue sur une dalle VA, pas une dalle OLED « naturellement » sombre. C'est sûrement ça qui fait que le choix colorimétrique te dérange. Pour ma part, je préfère le rendu colorimétrique du mClassic au rendu classique qu'on a des jeux en général, mais comme tu le sais maintenant, je joue sur une dalle VA.
Par contre, côté latence, on accuse une perte de 0.1 ms. C'est pour ça que tu peux pas utiliser le mode jeux de ton téléviseur. Car le mode jeu du téléviseur est calé sur une latence minimale incompatible avec le mClassic qui accuse une retard, certes minimale, mais bien présent. C'est ce qui m'empêche notamment de pouvoir profiter du VRR sur ma Xbox Series X quand je l'ai de branché. Sinon cool que ta TV OLED puisse rendre du 1440p nativement, généralement les TV le font pas. Du coup, je serais curieux de connaître ton modèle de TV si ça te dérange pas.
Pour The Witcher 3, t'y joues sur quoi, sur Switch (jai pas compris, désolé).
aros Oui j’ai étais très surpris que la TV accepte le 1440p, la plupart étant 1080p puis 4K.
Oui c’est the witcher 3 sur switch, et je voulais voir ce que ça donnait de retiré l’anti aliasing pour avoir une image nette tout en comptant sur le mclassic pour atténuer tout ça ( sacré combinaison pour avoir la version switch la plus aboutie, j’te l’accorde ) et le résultat est pas mauvais à ce niveau là
heracles Ben joue sur pc si tu veux absolument avoir du 60fps car c'est pas sur console que tu l'auras. Et le "Beaucoup de joueurs sensibles à la fluidité auraient privilégier le jeu en +40 fps."
Beaucoup... Il y a tellement de facteurs à prendre en compte notamment le fait qu'il y a tres peu de jeux qui utilisent du 40fps ou bien qu'il y très peu de personnes qui ont une tv compatible. Et surtout on ne parle pas d'un Fast fps ou la le 60fps est indispensable. La c'est un jeu d'exploration donc le 30fps est clairement moins genant. Mais encore une fois si ça te gêne tellement mais va jouer sur pc la tu verras c'est top
jamrockkakazu sauf que la tu parles des deux opus de The Surge personne ne sait ce qu'il en est de Lords of the Fallen. A moins que tu aïs testé le jeu en avance.
bennj Je suis déjà sur PC j'ai une RX 6950 XT et je m'en plains pas je fais tout tourner à fond en 1440p/100+ fps sur la plupart des jeux. Avant d'être passé sur PC, j'ai lâché la Series X et la PS5 pour cette raison, c'est que ça me fait chier de me taper encore des jeux en 30 fps.
La prochaine gen des consoles risque d'être enfin intéressante pour moi. Bref je suis trop sensible à la fluidité d'où mon exigence. Je suis loin d'être le seul vraiment
walterwhite Comme avec toutes les consoles depuis la nuit des temps. La PS3 tout comme la PS4 n'avaient pas tous leurs jeux en Full HD. Ce n'est pas de leur faute si vous vous faites des films.
geralttw
Maintenant que ces fait sur The Witcher 3, la vérité faut tester ça sur Xenoblade Chronicles 2 et son extension Torna : Golden Country Y'a moyen que ta TV + le mClassic, si les deux se complète vraiment dans le rendu final obtenu Après, je sais pas du tout ce que donne The Witcher 3 sur Switch, et moins encore après la mise à jour graphique à laquelle ils ont déjà pu procédé y 'a un certain temps. Faudrait j'aille voir histoire de me faire un avis sur la question.
Et sinon, ça t'es possible de me communiquer le modèle de ta télévision OLED (histoire que je puisse me renseigner) ?
aros Yes, c’est celle ci ( j’ai la 55 pouces mais dispo aussi en 65 pouces)
TW3 quand t’a le combo image nette + aliasing réduit avec le mclassic, ça commence vraiment à avoir de la gueule mais ça n’enlèvera pas les autres défauts ( clipping textures etc… ) et puis la résolution dynamique se voit toujours.
Mais sur des jeux avec un léger aliasing ( je pense à red dead par exemple ), ça le rendrait parfait à mon avis.
geralttw
Je me doute, oui. Par contre, pour parer à la résolution dynamique d'un jeu, si ton jeu descend pas en dessous du 720p, il suffit de bloquer la résolution console à cette valeur. Tu risques de perdre un chouilla dans l'ensemble, mais au moins auras-tu une image dont la résolution ne varie pas.
Par contre, je peux pas accéder à ton lien, ça me dit : « Access Denied ».
aros TW3 est justement en 720p dynamique du coup, ça peut allé en dessous. Tu peux la supprimer en overclockant ta console mais bon.
Tiens essaie ce lien ( sinon au pire la ref c’est tv Samsung oled 2022 S95B ).
à la seconde ou les moteurs optimisés next gen vont débarquer, va falloir baisser ses exigences sur les réso/perf
On a des consoles qui peuvent faire tourner ça nickel et ça feignantise grave
Je préfère le mode performance mais c'est clair qu'on y perd énormément et comme dit plus haut ça ne va pas aller en s'améliorant.
La seule chose que j'attend d'eux, c'est que le « framerate » soit solide parce qu'avec je peux pas activer le VRR. Du reste, je vous laisse à votre dilemme entre mode performance et boycott
C'est pas les mêmes moyens en terme de ressources.
La next gen commence ENFIN, c'est comme si on était à la première année, avec enfin le crossgen qui dégage, et vous êtes en train de chialer parce qu'on a du 1440p à 30FPS.
Pour rappel, sur One PS4, on avait du 720p 60FPS sur Battlefield 4 par exemple, pourtant 4 ans plus tard, Battlefront II qui lui met une misère monumentale visuellement, tourne en plus haute résolution à 60FPS.
Quand vous voulez vous comprendrez que l'optimisation ça se fait au fil de la gen, que les ressources utilisées par les dév' sont utilisées comme ils le veulent. Quand vous voulez vous comprendrez que la 4K 60FPS sur Lords of the Fallen c'est possible sur SX et PS5, au détriment d'autre chose. Quand vous voulez vous commencez à réfléchir...
Avec la VRR sur les écrans compatibles on aurait pas ressenti le gêne...
Bah justement ! je joue pas sur une TV mais un écran PC 32 pouces/80cm), et je vois assez la différence quand je l'utilise de quand je ne l'utilise pas, pour l'utiliser aussi bien sur Switch que sur Xbox Series X.
Maintenant c'est sûr que ça va pas changer ton jeu, mais sur Devil May Cry V par exemple, je me souviens qu'il m'a permis d'y jouer sans cet effet de grain déguelasse qu'avait l'image, tout en la rendant plus clinquante. Quand je joue à Grime sur mon PC (un i5 vieillot doublé d'une GTX 1050 Ti toute aussi vieillotte), je suis heureux de pouvoir y jouer à la max en 720p upscalé en un 1080 ou 1440p réhaussé, selon que je veuille y jouer soit en 60, soit en 120 fps (un peu près), sans que ma carte graphique surchauffe. Dark Souls 3 sur Xbox (qui tourne en 900p), bah ça aide aussi le mClassic. C'est pas le rendu optimale qu'on peut obtenir sur un jeu console en 1080p, mais ça fait le taff, assez pour ne pas pester après le rendu. Puis sur des jeux déjà propres (tenant la résolution 1080p), bah il sublime le tout.
Tout ça pour dire que je mesure ce que le mClassic apporte au rendu de l'image sans l'intervation logicielle d'une télévision récente, et personnellement, il risque pas de prendre la poussière.
Puis, petite astuce, si tu devais ne pas savoir (au cas ou, sait-on jamais), le mClassic upscale vers un 1440p boosté, que depuis le 720 et 1080p (dans les grandes lignes). Le truc, c'est que si ton téléviseur prend pas en charge la résolution 1440p, bah tu peux pas profiter de l'upscale, juste de l'anti-aliasing (à partir le 720 et 1080p seulement).
Alors sur la Switch, la question ne se pose pas tellement, puisque la console sera en 1080p, voir en 720, mais sur une Playstation 5 ou une Xbox Series, bah faut bloquer la résolution à même les paramètres console sur l'une ou l'autre résolution (et sur Xbox Series, décocher la case 4K). Le cas contraire, tu profiteras d'une meilleur colorimétrie en terme de rendu, mais rien de plus.
Mais peut-être que tu sais déjà tout ça et que je t'ai fais perdre ton temps. Si ce doit être le cas, je m'en excuse.
Après voilà, sinon profiter d'une meilleur colorimétrie et d'une solution anti-aliasing, tu pourras pas profiter de l'upscale vers le 1440p si ta TV ne prend pas de façon native cette résolution-ci. Sur une TV, l'usage qu'on peut faire du mClassic est limité, contrairement a si tu devais l'employer à destination d'un écran PC. Moi-même j'ai mis du temps a comprendre tout ce que j'te dis là maintenant. Mine de rien, le bidule est pas facile facile à cerner...
hangro516 mon dieu ce que tu es ridicule.
La prochaine claque attendue c'est Spider-Man 2, niveau optimisation, avec Insomniac ça devrait être autre chose.
niflheim ayé le commercial est de retour...
Tes studios ils ont des budgets pour leurs jeux BEAUCOUP plus élevés que ceux de CI Games t'as tendance à légèrement l'oublier. Ca joue LEGEREMENT dans la qualité d'un jeu.
Du coup ma switch est représenté sur un hdmi mais est en 1440p contre 1080p habituellement.
Mais j’ai l’impression que c’est un peu moins opti, en terme de couleur mais aussi de latence ( même si ça reste très correct ).
Par contre c’est clair que le 1440p permet de bien atténuer l’aliasing ( je l’ai principalement acheté pour voir le résultat sur tw3 et c’est franchement pas degueu en 1440p )
Plus jamais je toucherais un jeu en 30 fps, c'est désagréable pour moi et je sais que nous sommes beaucoup de joueurs à être trop habitué au 60 fps minimum.
« Mais j’ai l’impression que c’est un peu moins opti, en terme de couleur mais aussi de latence ( même si ça reste très correct). »
En terme de couleur, personnellement je vois pas le mal pour dire vrai. Le truc, c'est que je joue sur une dalle VA, pas une dalle OLED « naturellement » sombre. C'est sûrement ça qui fait que le choix colorimétrique te dérange. Pour ma part, je préfère le rendu colorimétrique du mClassic au rendu classique qu'on a des jeux en général, mais comme tu le sais maintenant, je joue sur une dalle VA.
Par contre, côté latence, on accuse une perte de 0.1 ms. C'est pour ça que tu peux pas utiliser le mode jeux de ton téléviseur. Car le mode jeu du téléviseur est calé sur une latence minimale incompatible avec le mClassic qui accuse une retard, certes minimale, mais bien présent. C'est ce qui m'empêche notamment de pouvoir profiter du VRR sur ma Xbox Series X quand je l'ai de branché. Sinon cool que ta TV OLED puisse rendre du 1440p nativement, généralement les TV le font pas. Du coup, je serais curieux de connaître ton modèle de TV si ça te dérange pas.
Pour The Witcher 3, t'y joues sur quoi, sur Switch (jai pas compris, désolé).
Oui c’est the witcher 3 sur switch, et je voulais voir ce que ça donnait de retiré l’anti aliasing pour avoir une image nette tout en comptant sur le mclassic pour atténuer tout ça ( sacré combinaison pour avoir la version switch la plus aboutie, j’te l’accorde ) et le résultat est pas mauvais à ce niveau là
Beaucoup... Il y a tellement de facteurs à prendre en compte notamment le fait qu'il y a tres peu de jeux qui utilisent du 40fps ou bien qu'il y très peu de personnes qui ont une tv compatible. Et surtout on ne parle pas d'un Fast fps ou la le 60fps est indispensable. La c'est un jeu d'exploration donc le 30fps est clairement moins genant. Mais encore une fois si ça te gêne tellement mais va jouer sur pc la tu verras c'est top
La prochaine gen des consoles risque d'être enfin intéressante pour moi. Bref je suis trop sensible à la fluidité d'où mon exigence. Je suis loin d'être le seul vraiment
Maintenant que ces fait sur The Witcher 3, la vérité faut tester ça sur Xenoblade Chronicles 2 et son extension Torna : Golden Country Y'a moyen que ta TV + le mClassic, si les deux se complète vraiment dans le rendu final obtenu Après, je sais pas du tout ce que donne The Witcher 3 sur Switch, et moins encore après la mise à jour graphique à laquelle ils ont déjà pu procédé y 'a un certain temps. Faudrait j'aille voir histoire de me faire un avis sur la question.
Et sinon, ça t'es possible de me communiquer le modèle de ta télévision OLED (histoire que je puisse me renseigner) ?
TW3 quand t’a le combo image nette + aliasing réduit avec le mclassic, ça commence vraiment à avoir de la gueule mais ça n’enlèvera pas les autres défauts ( clipping textures etc… ) et puis la résolution dynamique se voit toujours.
Mais sur des jeux avec un léger aliasing ( je pense à red dead par exemple ), ça le rendrait parfait à mon avis.
https://www.samsung.com/be_fr/tvs/oled-tv/s95b-55-inch-oled-4k-smart-tv-qe55s95batxxn/
Je me doute, oui. Par contre, pour parer à la résolution dynamique d'un jeu, si ton jeu descend pas en dessous du 720p, il suffit de bloquer la résolution console à cette valeur. Tu risques de perdre un chouilla dans l'ensemble, mais au moins auras-tu une image dont la résolution ne varie pas.
Par contre, je peux pas accéder à ton lien, ça me dit : « Access Denied ».
Tiens essaie ce lien ( sinon au pire la ref c’est tv Samsung oled 2022 S95B ).
https://www.googleadservices.com/pagead/aclk?sa=L&ai=DChcSEwijkr_uj-aAAxVHlGgJHa8QChUYABAPGgJ3Zg&gclid=EAIaIQobChMIo5K_7o_mgAMVR5RoCR2vEAoVEAQYASABEgKsCfD_BwE&ohost=www.google.fr&cid=CAASJeRoZzs2WcSXIGp2ZqVGaXyUCVg6bqcW_8jwwhTUPXsAaTLAWew&sig=AOD64_0fEqtLasF8PWNlYThS5WBaAh6oAA&ctype=46&q=&ved=2ahUKEwju9rbuj-aAAxU4VKQEHUlbBkEQzzkoAHoECAYQDA&adurl=
Ah bah si le jeu tiens pas le 720p, j'ai rien dit. Merci pour la référence, j'irais voir ça plus tard.