Alors que des joueurs attendent toujours des jeux au rendu vraiment next gen sur console encore en 2023, certains veulent trouver les coupables....
Qui bride la next gen?
- Est ce que la Xbox Serie S est le boulet techno JV de la décennie ?
(Spoiler: oui! )
- Ou est-ce plutôt le PC de notre SuzuKube national ?
(Spoiler: leave SuzuKube alone! )
Difficile à entendre peut-être pour certains, ou à comprendre aussi pour d'autres... et pourtant...
D'ailleurs j'en parlais encore il y a quelques jours avec un ami spécialisé sur les moteurs de jeu, qui bosse sur la 'new gen' depuis l'arrivée des premiers kits de dev.
Alors on va se demander pourquoi elle serait un boulet, du moins à l'heure actuelle, alors que les jeux tournent après tout sur des configs PC moindres ?
D'abord, il est inutile de comparer l'incomparable, il y a suffisamment de subtilité entre le business model et l'aspect technique du PC en comparaison du monde console pour que cette réflexion puisse être totalement juste, même si elle peut sembler implacable au premier abord.
Business model
Grosso modo, Microsoft va sortir une next gen autour de 2028, fera probablement du X-gen jusqu'à l'aube 2030 environ à cause d'un parc de nouvelles consoles trop jeune, et par définition TOUS les jeux qui seront sur console Microsoft devront avoir une version Serie S, car c'est obligatoire, et ça le sera même encore dans 5 ou 6 ans.
Sur PC, le business model te dit de..... faire ce que tu veux. Il n'y a aucune obligation, si l'investissement pour raboter un jeu coute trop cher pour telle ou telle config, l'entreprise ne le fera tout simplement pas.
A l'image de la Switch qui malgré son immense succès est privée de la quasi-totalité des AAA, alors imaginons un instant les éditeurs hésiter à se priver d'un vieux matos PC qui représente 1% des joueurs PC...
D'abord parce qu'en amont lors du développement d'un jeu, les parcs consoles et PC sont étudiés. Ensuite, le PC 'moyen' est de toute façon (quasi) toujours au moins aussi performant que la console 'moyenne'.
Et puis sur PC, le parc est gigantesque et se renouvelle continuellement. Il n'y a aucun problème à faire l'impasse sur des configs vraiment vieillissantes pour s'imposer une quelconque contrainte technique forte qui tirerait l'expérience vers le bas, là ou faire l'impasse sur une console peut être extrêmement compliqué pour la rentabilité d'un jeu.
Ici, même si le portage sur Serie X se fait facilement, il n'en sera pas forcément de même pour la Serie S et donc il faut l'anticiper et le considérer. Il faut soit abandonner les consoles Microsoft (choix que certains éditeurs feront et font déjà vu que la marque Xbox peine à se redresser et laisse les plein pouvoir à Sony), soit en tenir un minimum compte dès le début du développement, ce qui impacte plus ou moins fortement chacune des versions (Serie X, PS5 et même PC).
En quoi on ne peut pas comparer la Serie S à un PC?
Techniquement PC et console
Il y a 4 catégories importantes, ce sont les specs que l'on retrouve sur les fiches techniques des versions PC, et certaines posent ou poseront de gros soucis à la Serie S :
- CPU : Ici tout va bien pour la Serie S. De l'autre côté, traditionnellement, les CPU PC sont overkill pour des applications de type jeu vidéo (à part quelques exceptions) ou lorsque les jeux ont des portages codés avec les pieds, d'où le besoin de patchs pour corriger le tir (Coucou The Last of Us 'sorti trop tot' Part 1 ). Le CPU, parfois exotique, des old gens a pu poser quelques problèmes (Cyberpunk pouvait il etre plus vide sur ces machines ? ) , mais cette nouvelle génération est plutôt bien dotée.
- Stockage (HDD / SDD) : La Serie S est très bien dotée avec son SSD là aussi (l'espace de stockage rikiki de la bête est un autre débat). Sur PC les besoins sont complètement différents, des vieux HDD font encore généralement le taff sur la quasi-totalité des jeux encore en 2023 là ou certains imaginaient que la next-gen et son SSD magique allait chambouler cet écosystème si on revient 3 ans en arrière avec des jeux next gen impossible à sortir sur PC....
Bref, autre débat, et s'il est recommandé d'avoir au moins un SSD SATA, tout ce qu'il y a de plus basique, on pourra se passer de SSD NVME sur PC encore tres longtemps tant que les dev feront leur boulot correctement alors qu'ils sont déjà ou vont devenir 'indispensables' dans un environnement console.
- GPU : Là ça commence à coincer, car en 2023, et malgré des moteurs encore bien X-gen, elle propose une puissance de calcul déjà limitée alors pour le reste de la génération... à l'image de vieux GPU PC qui sont tout comme elle, désormais sur les rotules en 2023 et à la limite des configurations minimales (GTX 1060).
- (V)RAM : Le plus gros soucis de la Serie S, et ce depuis sa propre conception.
En vulgarisant au max...
Microsoft a dit : Faites vos jeux next gen sur Serie X et PC, vous choisissez les textures 1080p, appuyez sur le bouton pour recompiler, et hop vous aurez votre version Serie S. c'est (presque aussi simple que ça) ne vous inquiétez pas.
C'est juste faux et utopique, comme si le passage d'une 'pseudo' 4K vers du 1080p allait faire économiser 6 Go de VRAM et c'est la raison principale du retard de Microsoft sur cette génération, alors qu'ils semblaient en avance sur Sony lors de l'annonce des consoles...
Je rappelle en passant, la Serie X (16Go) et la Serie S (10Go) de RAM/VRAM unifiée, il faut encore soustraire sur les 2 machines un peu plus de 2GO d'espace réservé pour l'OS, sans parler de la bande passante bcp plus faible sur la XSS.
C'est un gros problème pour les devs car la mémoire a besoin de charger les assets, et les créatifs n'auront presque jamais les moyens de les réaliser plus d'une fois, et ne font plus depuis la génération PS2/GC/Xbox... Donc on se tape ou l'on va se taper des assets limités par la XSS sur tous les jeux next gen.
Nan mais les jeux consoles sont mieux optimisés que sur PC, la XSS ne posera pas de soucis
Le composant qui vieilli le plus mal sur PC pour le gaming si on veut rester à jour, c'est la carte graphique, maintenant reprenons ce qu'il y a de plus proche de la Serie S sur le papier en terme de puissance de calcul, la meilleure candidate pour cela est la GTX 1060 6Go de VRAM sorti il y a 7 ans maintenant.
Bilan en 2023 de la GTX 1060 6Go?
Au final ce GPU est sorti quelques mois à peine avant la PS4 Pro avec une puissance de calcul brute équivalente, on remarque :
- qu'elle a fait tourner depuis ce temps a peu pres tous les jeux en 1080p/60fps ou 2k/30fps dans des conditions similaires à la PS4 Pro, voire même meilleur.
- la XSS, pourtant sur une archi plus recente, ne permet toujours pas de constater un réel avantage technique sur ce que proposait la PS4 Pro ou la 1060, même sur les derniers jeux. Par exemple A Plague Tale Requiem tourne avec un niveau visuel quasi identique sur les 2 machines en 1080p/30fps aussi.
Par contre je reviens volontiers sur l'obsolescence supposée des PC face aux consoles vu qu'il me parait difficile de jouer sur old gen à des jeux comme Forspoken, Returnal ou encore A Plague Tale Requiem à l'inverse d'un vieux PC entré de gamme de 2016...
L'obsolescence générationnelle, elle, par contre elle est bien réelle (Coucou dualshock 4, PSVR 1.... car ce n'est pas que les jeux).
Bref, l'optimisation console, l’obsolescence PC, c'est de la bonne légende urbaine, je ne vois vraiment pas en quoi la XSS pourra ne pas brider la génération, ni la magie Vaudou, ni la une puce cachée ne viendra l'aider...
Apres tout, elle n'a ni le fameux Kraken de la PS5 ( ) ni le DLSS pour y croire un peu.
51love Wow, article parfaitement documenté, très agréablement surpris (je m'attendais à un article troll lol).
J'ajouterais que s'il n'y a pas de puce physique pour le DLSS, AMD a quand même développé le FSR, mais c'est que du software... Du coup, il se *pourrait* que le FSR soit très efficace, mais même dans ce cas là, ça sera utilisé sur Series X et Series S et ne changera rien au problème global.
D'ailleurs, j'ai hâte d'avoir ma ROG ALLY, j'ai vraiment besoin de voir comment fonctionne le RSR (enfin du FSR appliqué à tout ce qui passe à l'écran) et si c'est géré en hardware ?
51love NDLR : je parle de ROG ALLY car c'est du RDNA3 contre du RDNA2 sur Xbox Series, et que j'me demande ce que cette architecture apporte concrètement quoi
Cela dit pour la comparaison avec la Series S, la GTX 1060 est batarde car la Series S est bien capable de faire du Ray Tracing, ce qui est impossible sur une GTX 1060 : https://www.youtube.com/watch?v=Hwv93qmkWiM
Par contre je reviens volontiers sur l'obsolescence supposée des PC face aux consoles vu qu'il me parait difficile de jouer sur old gen à des jeux comme Forspoken
lol le CSC, Forspoken est un des rares jeux PC qui requiert obligatoirement une carte compatible DX 12.1 ce qui limite artificiellement la compatibilité, c'est pas de chance.
51love et pour finir la conclusion n'est pas si simple : sur un jeu utilisant du RT (toi qui est sur PC tu sais combien ça bouffe en ram) + des textures 4K sur un moteur en UE4 ou UE5, c'est d'une simplicité extrême...
Tu peux installer UE5 ici : https://www.unrealengine.com/en-US/unreal-engine-5 et si t'as un compte dev sur la Series S (ça coute pas très cher) tu verras que c'est vraiment simple de faire un build Series S.
suzukube oui mais le RT c'est une option partout, même si on l'a verra quasi jamais sur XSS.
Des assets moins qualitatifs car trop volumineux pour la RAM,ça par. Contre c'est la XSS et ça impacte le dev des autres versions.
Pour le FSR, moui, c'est dispo partout donc ça change pas grand chose effectivement. Et c'est largement moins qualitatif que le DLSS dès que tu pars d'une résolution de travail faible.
51love En fait, il y a un élément aussi que tu ne prends pas en compte : C'est UE5 et Nanite (je pense que tu connais). Nanite permet d'adapter la charge CPU directement, là où sur UE5 faut que tu travailles sur les LOD. Avec Nanite, t'as plus besoin de simplifier tes modèles 3D, et, de ce que j'en ai vu jusque là, les résultats sont bluffants sur les petites architectures MODERNES (à partir de 1660 / 2060). Par contre Nanite sur une GTX 1060 et avant, c'est vraiment la merde...
Bref, on verra la suite, mais la Series S devrait mieux tourner sur les jeux UE5 (bon le truc c'est que j'ai que Fortnite en exemple actuellement xD).
Pour le FSR, j'suis d'accord avec toi, mais pour le RDNA3, AMD a rajouté des coeurs IA et y'a même des cœurs RT de ce que j'ai vu, et en Ray Tracing les dernières cartes graphiques d'AMD ont l'air de "tenir le coup". Après j'm'y intéresse que depuis pas longtemps, c'est bennj qui m'a fait remarquer ça !
Et d'accord avec toi pour le RT optionnel, j'voulais juste dire que dans ce cas là, en ce basant sur ces settings et en virant le RT (ou le SSR dans l'eau par exemple), y'a pas trop de raisons que ça passe pas. Sauf si ton jeux a déjà des textures dégueulasses sur Series X mais bon, y'a un moment où c'est aussi une question d'équilibre global : Les jeux XSX sont censé target du 2160p et pas du 1080p quoi :/
Et ADMETTONS que ce soit totalement vrai et que la Series S bride la gen : en quoi cela briderait les exclues PS5 ? Sauf si Sony prévoit de sortir leurs jeux sur Xbox...
J'avais entendu parlé de cette histoire, mais je m'y étais jamais attardé, mais dans tous les cas, vu toutes les vidéos youtube de forspoken qui est jouable sur les GTX 10XX, j'imagine qu'ils ont trouvé une solution? ça serait un fait extrêmement rare sur PC.
51love J'trouve que ça tourne bien Forspoken sur GTX 1060, j'veux dire sur PS5 c'est pas si glorieux que ça en mode qualité ou qualité + RT où j'vois pas la différence si ce n'est la résolution mais 30 fps dans les 2 cas !
Mais j'suis sûr qu'il peut tourner sur une Series S, c'est qu'une question de settings, là encore. Au pire on dira qu'il n'a pas été "Hold Back By the S", pour un résultat totalement extraordinaire à l'écran
suzukube Disons que Nanite, c'est une solution software la encore qui peut etre appliqué à toutes les machines recentes (au moins), et seulement aux jeux sous UE 5.
Avec Nanite, t'as plus besoin de simplifier tes modèles 3D, et, de ce que j'en ai vu jusque là, les résultats sont bluffants sur les petites architectures MODERNES (à partir de 1660 / 2060). Par contre Nanite sur une GTX 1060 et avant, c'est vraiment la merde...
mais c'est interessant comme approche, je ne suis pas au courant par contre pour la non compatibilité des vieux GPU, j'irai voir.
Apres attention a la subtilité, je suis pas train de dire que la XSS fera de la 1060 un GPU encore viable en 2030 non plus jusqu'elle tire la gen par le bas, surtout a cause de sa VRAM.
Façon plus personne n'aura de 1060 dans son PC dans quelques années, donc d'elle même elle sera rendue obsolète, les drivers etc tt...
Mais la XSS va certainement aider a la survie de ce type de GPU pendant quelques années.
D'ailleurs le bon coté des choses, des machines comme les Steam Deck ou les Rog Ally, (et peut etre meme la Switch 2) vont plutot profiter de la XSS pour ne pas etre largué aussi rapidement, avec Nanite peut etre aussi
51love Bah pour Nanite, tu peux le voir dans la démo de Matrix si tu l'as déjà fait pour voir comment ça fonctionne ! Pour Nanite, je t'invite à regarder cette video à 8min57 (je l'ai déjà calée) c'était mon gameplay sur Matrix Awaken sur Series S, et tu peux voir comment fonctionne Nanite : https://youtu.be/zF-edNCVCAs?t=537
Pour résumer, plutot que de modéliser plusieurs fois ton objets avec des niveaux de détails différents (tu sais, les LOD, Level of détail), tu le modélises une fois et Nanite va l'afficher tout seul avec plus ou moins de... nanite (au lieu de polygone).
La dernière MAJ de Fortnite permet de jouer en Nanite et tu peux voir depuis le bus TOUTE la map ainsi que TOUTES ombres sans discerner au loin des arbres ou des maisons modélisées de manière grossière et qui se "détail" quand tu avances ! C'est révolutionnaire ! Les jeux UE5 sur console ça va être le feuuuu !
Pour Forspoken, sur Xbox One ou PS4 j'pense que le proco prendrais cher, faudrait vraiment taffer des versions pour ce jeu. J'soupçonne qu'ils ont chié aussi pour Hogwarts Legacy PS4 / Xbox One lol et encore plus pour la version Switch, j'serais pas surpris qu'elle soit annulée !
51love bah va falloir apprendre à lire alors puisque j'en ai déjà donné des arguments, mais bon, c'est bien de faire comme si c'était rien... =') Pire que des arguments, ce sont des faits même que j'énonce.
La XSS était vendue au départ comme une XSX garantissant la même expérience (Graphismes, RT, 120fps ...) mais pour du gaming en 1440p en tout cas c'était la promesse de Microsoft, malheureusement pour elle c'est pas du tout le cas pour la simple raison l'écart est trop grand avec les autres pour permettre cela.
Et oui c'est un boulet non seulement déjà pour la XSX vu qu'elles partagent les mêmes jeux mais aussi les PS5/PC pour les jeux multi support, c'était une mauvaise idée cette console n'aurait du jamais voir le jour.
Leonr4 tu peux pas englober tout Rocksteady à cause de la déclaration D'UN mec. T'as d'autres studios qui ont déjà affirmé n'avoir strictement aucun souci avec la XSS, et comme dit ailleurs, quand cette console est capable de faire tourner Flight Simulator vu comme le jeu est gourmand, faut pas confondre "être un boulet" et "avoir la flemme". A un moment donné, si l'expérience Starfield en Septembre affiche bien un jeu en 1440p, que le framerate à 30 est stable, et que l'expérience globale reste de bonne facture, les gens qui critiquent pourront plus rien dire, et on sait tous qu'il est fort improbable que la version XSS de Starfield proposera une expérience merdique.
grievous32 lol on parle encore du graphiste qui a fait les cheveux d'Harley Quinn dans le prochain Suicide Squad ? J'espère pour lui que son jeu sera en 60 fps, parce qu'il va se faire back slash sévère xD !
51love J'sais pas sur Fortnite y'a pas Nanite sur Xbox One et PS4, et ça rame grave sur une GTX 1060 j'sais pas vraiment pourquoi, au lieu d'accélérer les performances ça les diminues :/
Ton exemple de Starfield n'est pas très pertinent, ok le jeu est correct mais c'est loin d'être un foudre de guerre en plus bourré de temps de chargement, et le 30fps stable pour le moment de ce qu'ils ont montré c'est pas encore le cas.
Où les joueurs se plaignent de performances et où ça serait stable qu'à partir des séries nvidia 2000... Et ceux sont piles celles qui ont les core RTX ! En fait, j'me dis qu'il faudrait quelqu'un qui a une GTX 1080 et voir ce que ça donne dans ce cas là ?
leonr4 dans tous les articles, c'est Lee Devonald et Ian MacClure de chez Bossa Studio, Exor Studios parle de la mémoire (ça rejoint 51Love) et Caverns of Mars: Recharged qui dit que c'est dur. Un jeu que j'connaissais même pas tiens, j'vais zieuter un peu.
PTDR c'est un gag ce jeu... Ca devrait tourner sur une Xbox 360 sincèrement... Donc Caverns to mars a été limité par la Xbox Series S, elle va aller loin cette gen dites donc, heureusement qu'on a les first party avec FH5 et Flight Simulator
En vrai, c'est interessant, il dit que le target de la Series S est du 1440p / 60 fps et que ce sera difficile à tenir sur toute la gen (il ne parlait pas de son propre jeu). Et il n'a pas tort dans les faits, c'est ce qu'on constate. Mais ça vient du fait que la Series X avait pour target de la 4K à 60 fps aussi... Donc forcément, si un jeu est en 1440p / 30 fps sur Series X, il sera pas en 1440p 60 fps par magie sur Series S.
Leonr4 ok 5 liens, c'est supposé représenter toute l'industrie ? Est ce qu'on doit vraiment parler du tocard de chez ND qui n'a touché ni ne touchera jamais la console et qui la ramène ? =') Y a plusieurs dév' qui disent le contraire aussi hein, donc jusque là, il suffit d'un seul contre exemple pour démolir cette pseudo accusation débile...
Suzukube non mais t'sais, t'as 5 random qui l'ouvrent, ça y est c'est pris pour argent comptant alors que comme dit, la version la moins bonne d'un jeu est sur PC =')
51love Peut-être qu'ils l'ont patché depuis je sais pas mais lors de la sortie de la démo j'avais voulu testé avec ma RX 570 et c'est là que j'ai découvert le pot-aux-roses.
suzukube Nanite utilise probablement les Mesh/Primitive Shaders sur les cartes compatibles, d'où les meilleures perfs des RTX vs GTX.
Par contre je sais pas pourquoi tu sembles croire que ça va sauver la Series S alors que c'est tout le contraire, les modèles ultra détaillés vont utiliser encore plus de RAM que les LOD.
lamap Parce que UE5 est optimisé RDNA2 et que justement là où la Series S a le plus de mal, c'est les jeux en architecture GCN. Regarde ce jeu par exemple : https://www.youtube.com/watch?v=vwxaKOn7uCE
De toutes les façons, si les nouveaux moteurs tiennent leur promesse sur la Series S + RDNA2, ça voudra dire que la ROG ALLY + RDNA3 pourra tenir sa promesse de 8 Tflops. Et ça va être le feu ! Sinon c'est que c'est juste de la masturbation marketing, et je serais très triste de ma ROG ALLY.
lamap Ah c'est le moteur de scalability avec Nanite qui me fait penser ça, car tu peux dans le pire des cas générer des static meshes (des LOD quoi) à la volée, pour par exemple adapter ton jeu sur un mobile Android par exemple. C'est ce qu'ils ont fait sur Fortnite.
Mais Nanite est justement censé permettre des modèles ultra détaillé sans que ça te bouffe trop en mémoire quand ces modèles sont éloignés, et Nanite permet ce rendu particulier de Matrix Awakens y compris sur Series S, c'est pour ça que j'suis pas plus inquiet que ça...
leonr4grievous32 Et quand bien même Starfield ou d'autres jeux tourneraient parfaitement sur XSS, ça ne prouverait en rien que le jeu n'a pas été bridé sur certains aspects durant sa conception pour elle.
Et puis, un peu de sérieux, il est bcp plus risqué pour un dev de parler en mal d'un support qui le fait vivre et de froisser Microsoft publiquement que de ne rien dire ou de pratiquer la langue de bois.
Rien que le fait que certains se sont plains publiquement, montre qu'il y a un malaise autour de cette machine, et ces quelques témoignages ont infiniment plus de valeurs que le reste.
Et pour connaitre des gens qui bossent dessus, je peux confirmer de sources sures que ces gars ne racontent pas de la merde, le problème bel et bien existant avec la XSS.
Et je viens de tomber la dessus, la XSS s'etait faite défoncer déjà a l'époque par plusieurs mecs de chez ID Software aussi, surtout pour les problèmes de mémoire que j’énonce ici.
La S subit un nerf significatif comparée à la X (4 vs 12.5 TFLOPS / 20 vs 52 UC) mais elle est toujours bien plus puissante qu’une One de base.... La mémoire est un gros problème sur la S. La quantité très amoindrie de mémoire et le banques de mémoires séparées avec des vitesses drastiquement ralenties constitueront un problème majeur. Baisser radicalement les résolutions de rendu offrira une aide marginale mais ne contrera pas totalement les déficiences.
suzukube Pour pouvoir calculer ses lod infinis nanite a besoin de garder les modèles full détails en ram ça me parait évident !
Du coup ça bouffe encore plus que de charger uniquement des lods prédéterminés quand nécessaire à l'ancienne.
lamap ça m'étonnerait quand même que ça applique la texture full rez d'un élément de l'autre côté de la MAP dans Fortnite par exemple, t'as 99 joueurs avec des skins différents et on voit clairement le chargement des textures qui s'affinent lorsqu'on installe le jeu sur un disque dur. Bon, après j'ai une 1660 Ti aussi.
J'pense plutot à des chargements déchargements dynamique de texture en ram perso, ma CG n'a que 6Go de Vram sur mon PC (je Hold Back la Gen avec mon PC aussi )
Ca serait même débile de toute charger, t'imagine un open world en UE5 faudrait charger le 150 Go de données du jeu dans la Ram, même avec 16 Go de ram c'est pas possible
Par contre, j'comprends mieux pourquoi FFXVI ne sort pas sur Xbox : Comme ça il n'est pas bridé par la Series S ni par les PC avec des GTX 1660 Ti. Des génies Square Enix, vivement la sortie cette semaine sur PS5
51love et pourtant, tant qu'il y aura des dév' sur des gros jeux qui affirment que la console ne leur pose aucun souci, c'est que le problème vient pas de la console, mais des dév' qui râlent.
Il n'y a pas trop de débat de toute façon concernant la Xbox serie S, à partir du moment ou Doom Eternal, jeu pensé pour des consoles avec 8Go de RAM et 1.5TFlops de puissance peut être porté et jouable sur Nintendo Switch, 400GFlops et 4Go de RAM, c'est difficile de prétendre que la series S est un problème.
Le seul vrai problème est que les développeurs doivent passer d'avantage de temps sur leur moteur de jeu car ils doivent en plus dès le départ prévoir une version amoindrie pour la series S, la ou dans le passé ils ne se préoccupaient de rien d'autre et laissaient la tâche du portage à d'autre (et souvent d'autres studio).
Le problème se situe dans le processus de développement, rien de plus, c'est juste évident et c'est pour cela que tous les avis ne convergent pas par ailleurs.
nyseko sauf qu'il y a une différence de taille, les portages Switch sont des décisions politiques qui arrivent bien plus tard que le dev initial du jeu, les jeux sont des versions taillés aux forceps de jeux qui étaient réellement nextgen.
Qui croirait un instant que lors du dev de TW3 ou Doom Eternal les mecs se sont dit : on y va doucement les gars, ça doit sortir sur Switch?
Ici la version Série S devra tjs être jouable en mm temps que la Série X, day one, ce qui force les devs a en tenir compte des le départ.
grievous32 raisonnement d'une simplicité presque affligeante... t'as pas du tout de parti pris.. t écoutes seulement ce que t'as envie d'entendre en fait...
Comme je l'ai dit, avec quasi moitié moins de RAM, une bande passante ridicule du niveau de la gen précédente (PS4 comme PS4 pro) qui peut croire que cette différence de 6go peut être compensé facilement?
Quand tu vois les gains en RAM sur PC qui ne sont généralement même pas de cette ordre alors que les machines sont nettement plus dotés en RAM...
Façon c'est simple, les devs prennent systématiquement les contraintes les plus limitantes comme base, 8go de RAM unifié, c'est de la grosse merde même en 1080p.
51love Bien sûr, ce qui demande d'avantage de travail et de planification mais cela ne change rien au fait que techniquement, des jeux comme Doom ou The Witcher 3 ont démontrés qu'un jeu pleinement current-gen peut sortir sur une plateforme moins puissante par la suite.
grievous32 MEC, c'est pas parce la Série S ne pose pas de problème pour tout le monde... qu'elle ne pose pas de problème tout court.
Y a des gens qui s'en plaignent, DONC faut accepter qu'elle pose problème d'une certaine manière
TOUT n'est pas blanc ou noir, la nuance ça existe et même beaucoup plus qu'on ne le pense
nyseko oui tout à fait. Par exemple, si FF16 venait a sortir sur Xbox Serie, vu que ça serait un portage d'un jeu next gen (bon après le dev du jeu avait déjà commencé bien avant les kit de dev next gen certainement) on pourra pas dire que la XSS a été un obstacle pour le jeu Ps5.
Maintenant un jeu comme Starfield, ils font avec, mais c'est évident que la ils doivent tenir compte de la machine lors de la conception du jeu, et c'est dommage, je dis pas non plus que c'est dramatique..
51love ton erreur à toi c'est de parler du PC qui nécessite plus de, plus de, plus de. Quand j'parle de Flight Sim et du fait qu'il est hyper gourmand sur PC et qu'il tourne malgré tout sans souci sur SS, tu prends même pas en compte le fait que l'opti PC est moindre en comparaison et qu'à l'instar des jeux PC en général, les dév' se font pas chier à optimiser les jeux à fond comme sur console.
J'le redis encore et encore, tant que le PC offrira la moins bonne version d'un jeu qui sort aussi sur XSS, c'est certainement pas la XSS qui freine quoi que ce soit. Même si évidemment, on le conçoit, les dév' veulent offrir un jeu qui soit beau, qui tient la route, qui est stable etc. Tant que ce minimum qu'ils veulent ne sera pas le jeu en full low et que cette version ne sera pas équivalente ou meilleure à ce que propose la XSS, les gens gueulent pour rien.
Id Software te sort que ça les freine alors qu'ils ont toujours moyen de proposer un truc moins bien sur XSS par rapport à la XSX... J'te dis un truc déjà, si un jeu tourne en 4K 60FPS sur XSX, en le foutant en 1080p 60 FPS, tu divises par 4 l'affichage, c'est énorme... Si en plus on te dit "fout ça en 30FPS en plus", tu le divises par 8 parce que t'as 2 fois moins d'images à afficher. Après comme ils sortent aussi leurs jeux sur PC, ils ont aussi leurs paramètres pour jouer sur la qualité des ombres, de la distance d'affichage, de la qualité des textures etc. Et ils ont juste à locker ça. Alors oui, ça offre une expérience moins jolie, mais en même temps quand t'achètes volontairement une console à 300 balles, en tant que consommateur, tu peux pas te plaindre derrière tant que ton jeu est stable et qu'il fonctionne.
En plus, comme ça va chercher l'optimisation, ils auront moins besoin de réduire la qualité de ces divers éléments parce qu'ils arriveront à bidouiller leurs trucs par rapport au PC où ils laissent la main au consommateur de gérer lui-même ses paramètres. Tant que ça tourne sur des PC moins puissants qu'une SS, on peut certainement pas jeter la pierre à cette console qui a démontré qu'elle en avait dans le ventre, et la RAM qui lui fait défaut pour permettre d'atteindre la qualité des SX et PS5, n'a pas l'air de tant poser problème que ça. Il me semble que même dernièrement c'était les dév' de Dead Island 2 qui avaient dit que ça leur posait aucun souci, mais comme j'accorde pas d'importance à tout ce merdier, j'confonds peut-être avec d'autres dév'.
Non, cette console ne pose aucun problème. Tout comme les jeux cross-gen ne sont pas inférieurs techniquement aux jeux conçus exclusivement pour la génération actuelle.
la console est mal opti , on est d'accord mais en quoi cette console mal foutu(surtout pour la RAM) devrait être un problème pour les tiers ?
à croire que les tiers sont obligés d'imposer un rendu équivalent entre un jeu qui sort sur PS5 et Xbox Series S.
De facto la Series S est présenté comme une console bien inférrieur technologiquement par rapport aux Series X et PS5, tu es tiers, tu te consacres sur les versions puissantes et la Series S tu baisses la réso au max, fait quelques optis et tu te casses pas trop la tête.
Dans cette configuration, comment peut elle être un boulet pour les autres ?
grievous32
Deja niveau optimisation, tu te plantes encore complètement, je t'invite a relire mon paragraphe et je te le prouve à nouveau juste en dessous vu que tu me parles de Flight Simulator.
Et tu as beau le dire et le redire, c'est faux car tu ne connais pas pour autant les subtilités d'un dev console / pc et notamment en matière de data management qui est complètement différent.
Data management qui est le principal soucis ici de la XSS alors que j'ai tenté de le vulgariser au maximum dans mon poste.
Maintenant faut que tu comprennes aussi la diff entre un portage et un jeu conçu pour un support. Parce que tu insistes avec Flight Simulator, mais on parle d'un jeu pensé pour le PC, sorti AVANT les next gen, dont la conception a du commencer vers le debut de gen Xbox One et le developpement au milieu, alors evidemment dans ce contexte la XSS n'a probablement pas impacté des masses le jeu durant son developpement vu que les next gen ont été définis lors de la phase finale de debugging du jeu.
Apres, pour ce qui est de Flight Simulator 2024, là par contre on ne pourra pas en dire autant, le jeu tiendra compte des specs de la XSS comme minimum, mais a aucun moment ils adopteront leur jeu à la config 'minimale' PC, particulièrement en matière de RAM!! ça n'a jamais été le cas dans l'histoire, ça ne le sera pas plus maintenant
Aussi, à l'heure actuelle, il n'y a effectivement probablement pas énormément de jeux commercialisés qui ont été impactés par la XSS entre :
- les jeux quasi tous X-gen depuis la sortie des consoles
- car Microsoft peine a lancer sa next gen avec des titres exclusifs
- et car les jeux tiers full next gen sont encore pour l'extreme majorité encore en developpement
Mais c'est pas parceque c'est pas commercialisé, que les dev n'ont pas depuis 2-3 ans des problemes pour autant avec cette machine sur certaines titres.
Je le rappelle, sa RAM de l'enfer qui est infiniment plus proche du niveau de ce qu'on avait sur old gen que next gen, pour donner une idée :
PS4 / PS4 Pro: 8Go / environ 200 Go/s de bande passante
XSS : 10 Go / environ 200 Go/s de bande passante
PS5 / XSX : 16 Go / environ 500 Go/s de bande passante
[s]En detournant le debat sur le PC tu es hors sujet, OSEF des configs PC, une derniere fois, les devs ne vont pas brider un jeu pour des configs modestes, pour des PC qui manquent de RAM! ils t'inciteront, comme ils le font depuis tjs et particulierement en ce moment a t'acheter 16 à 32go de Ram et basta! ils vont quand meme pas pourrir leur jeu pour des mecs qui jouent encore avec 8go de ram...
ou de la soit disant mauvaise optimisation PC alors que la Serie S se fera peter toute la gen par des configs PC ultra modeste, tout comme depuis et pendant 10 ans, des petits PC gamers ont pété la old gen, et fait au moins jeu egal a puissance de calcul equivalente.
J'te dis un truc déjà, si un jeu tourne en 4K 60FPS sur XSX, en le foutant en 1080p 60 FPS, tu divises par 4 l'affichage, c'est énorme... Si en plus on te dit "fout ça en 30FPS en plus", tu le divises par 8 parce que t'as 2 fois moins d'images à afficher.
J'te dis un truc deja, ils ne tourneront pas en 4k/60fps sur XSX, enfin particulierement les AAA qui vont patir de la faiblesse de la XSS je veux dire, et quand bien même, ça change rien au fait que la XSS a pas assez de mémoire pour gerer proprement un jeu qui utilise et rempli bien la RAM de la XSX (c'est factuel!). La mémoire pour l'affichage d'une image finale, c'est pas grand chose au regard de tout ce qu'on y stocke.
- Est ce que la Xbox Serie S est le boulet techno JV de la décennie ?
(Spoiler: non )
grievous32 j'ai encore lu aucun argument de ta part pour soutenir une thèse pourtant indéfendable
Mais bon si tu as un semblant de complément d'information a donner plutôt qu'un 'non'
J'ajouterais que s'il n'y a pas de puce physique pour le DLSS, AMD a quand même développé le FSR, mais c'est que du software... Du coup, il se *pourrait* que le FSR soit très efficace, mais même dans ce cas là, ça sera utilisé sur Series X et Series S et ne changera rien au problème global.
D'ailleurs, j'ai hâte d'avoir ma ROG ALLY, j'ai vraiment besoin de voir comment fonctionne le RSR (enfin du FSR appliqué à tout ce qui passe à l'écran) et si c'est géré en hardware ?
Cela dit pour la comparaison avec la Series S, la GTX 1060 est batarde car la Series S est bien capable de faire du Ray Tracing, ce qui est impossible sur une GTX 1060 : https://www.youtube.com/watch?v=Hwv93qmkWiM
lol le CSC, Forspoken est un des rares jeux PC qui requiert obligatoirement une carte compatible DX 12.1 ce qui limite artificiellement la compatibilité, c'est pas de chance.
Tu peux installer UE5 ici : https://www.unrealengine.com/en-US/unreal-engine-5 et si t'as un compte dev sur la Series S (ça coute pas très cher) tu verras que c'est vraiment simple de faire un build Series S.
Des assets moins qualitatifs car trop volumineux pour la RAM,ça par. Contre c'est la XSS et ça impacte le dev des autres versions.
Pour le FSR, moui, c'est dispo partout donc ça change pas grand chose effectivement. Et c'est largement moins qualitatif que le DLSS dès que tu pars d'une résolution de travail faible.
Bref, on verra la suite, mais la Series S devrait mieux tourner sur les jeux UE5 (bon le truc c'est que j'ai que Fortnite en exemple actuellement xD).
Pour le FSR, j'suis d'accord avec toi, mais pour le RDNA3, AMD a rajouté des coeurs IA et y'a même des cœurs RT de ce que j'ai vu, et en Ray Tracing les dernières cartes graphiques d'AMD ont l'air de "tenir le coup". Après j'm'y intéresse que depuis pas longtemps, c'est bennj qui m'a fait remarquer ça !
Et d'accord avec toi pour le RT optionnel, j'voulais juste dire que dans ce cas là, en ce basant sur ces settings et en virant le RT (ou le SSR dans l'eau par exemple), y'a pas trop de raisons que ça passe pas. Sauf si ton jeux a déjà des textures dégueulasses sur Series X mais bon, y'a un moment où c'est aussi une question d'équilibre global : Les jeux XSX sont censé target du 2160p et pas du 1080p quoi :/
https://www.gameshub.com/wp-content/uploads/sites/5/2023/01/system-requirements-forspoken.jpg
J'avais entendu parlé de cette histoire, mais je m'y étais jamais attardé, mais dans tous les cas, vu toutes les vidéos youtube de forspoken qui est jouable sur les GTX 10XX, j'imagine qu'ils ont trouvé une solution? ça serait un fait extrêmement rare sur PC.
http://www.youtube.com/watch?v=mYi8LJPZAWQ
ALors oui, c'est pas la grande experience sur PC avec une 1060, mais ça a le mérite d'etre la...
J'aurais placé la RTX 2060 mais elle est plus puissante, y'a pas photo, avec en plus des coeurs RT :/
Chez AMD j'ai du mal mais je dirais au dessus d'une RX 5500 XT et en dessous d'une RX 6500 XT. Et là, pour le coup, je crois qu'elles ont le même comportement en Ray Tracing
Mais j'suis sûr qu'il peut tourner sur une Series S, c'est qu'une question de settings, là encore. Au pire on dira qu'il n'a pas été "Hold Back By the S", pour un résultat totalement extraordinaire à l'écran
mais c'est interessant comme approche, je ne suis pas au courant par contre pour la non compatibilité des vieux GPU, j'irai voir.
Apres attention a la subtilité, je suis pas train de dire que la XSS fera de la 1060 un GPU encore viable en 2030 non plus
Façon plus personne n'aura de 1060 dans son PC dans quelques années, donc d'elle même elle sera rendue obsolète, les drivers etc tt...
Mais la XSS va certainement aider a la survie de ce type de GPU pendant quelques années.
D'ailleurs le bon coté des choses, des machines comme les Steam Deck ou les Rog Ally, (et peut etre meme la Switch 2) vont plutot profiter de la XSS pour ne pas etre largué aussi rapidement, avec Nanite peut etre aussi
Par contre sur PS4 ou XBox One, vu l'optimisation à chier du jeu, on aurait le droit a du bon 720p low 30fps max...
Pour résumer, plutot que de modéliser plusieurs fois ton objets avec des niveaux de détails différents (tu sais, les LOD, Level of détail), tu le modélises une fois et Nanite va l'afficher tout seul avec plus ou moins de... nanite (au lieu de polygone).
La dernière MAJ de Fortnite permet de jouer en Nanite et tu peux voir depuis le bus TOUTE la map ainsi que TOUTES ombres sans discerner au loin des arbres ou des maisons modélisées de manière grossière et qui se "détail" quand tu avances ! C'est révolutionnaire ! Les jeux UE5 sur console ça va être le feuuuu !
Pour Forspoken, sur Xbox One ou PS4 j'pense que le proco prendrais cher, faudrait vraiment taffer des versions pour ce jeu. J'soupçonne qu'ils ont chié aussi pour Hogwarts Legacy PS4 / Xbox One lol et encore plus pour la version Switch, j'serais pas surpris qu'elle soit annulée
Comme dirait Rocksteady "Une génération entière de jeux, paralysée par cette potato.", et ils sont pas les seuls beaucoup de développeurs se plaignent de cette console.
Et oui c'est un boulet non seulement déjà pour la XSX vu qu'elles partagent les mêmes jeux mais aussi les PS5/PC pour les jeux multi support, c'était une mauvaise idée cette console n'aurait du jamais voir le jour.
https://www.gamekult.com/actualite/la-xbox-series-s-une-epine-dans-le-pied-des-developpeurs-3050853657.html
https://jeuxvideo.rds.ca/les-developpeurs-se-creusent-la-tete-avec-la-xbox-series-s/
https://www.phonandroid.com/xbox-series-s-la-console-pas-assez-puissante-pour-les-developpeurs.html
https://xboxsquad.fr/la-xbox-series-s-ne-necessite-pas-vraiment-deffort-supplementaire-dapres-un-developpeur/
https://www.purexbox.com/news/2023/03/developer-suggests-xbox-series-s-may-struggle-to-keep-up-with-aaa-game-demands
Ton exemple de Starfield n'est pas très pertinent, ok le jeu est correct mais c'est loin d'être un foudre de guerre en plus bourré de temps de chargement, et le 30fps stable pour le moment de ce qu'ils ont montré c'est pas encore le cas.
Où les joueurs se plaignent de performances et où ça serait stable qu'à partir des séries nvidia 2000... Et ceux sont piles celles qui ont les core RTX ! En fait, j'me dis qu'il faudrait quelqu'un qui a une GTX 1080 et voir ce que ça donne dans ce cas là ?
Sinon, y'a des devs qui en parlent là, mais ça va trop loin pour moi : https://forum.unity.com/threads/so-nanite.889714/page-2
Donc j'sais pas trop quoi en faire de cette info.
Suzukube non mais t'sais, t'as 5 random qui l'ouvrent, ça y est c'est pris pour argent comptant alors que comme dit, la version la moins bonne d'un jeu est sur PC =')
suzukube Nanite utilise probablement les Mesh/Primitive Shaders sur les cartes compatibles, d'où les meilleures perfs des RTX vs GTX.
Par contre je sais pas pourquoi tu sembles croire que ça va sauver la Series S alors que c'est tout le contraire, les modèles ultra détaillés vont utiliser encore plus de RAM que les LOD.
De toutes les façons, si les nouveaux moteurs tiennent leur promesse sur la Series S + RDNA2, ça voudra dire que la ROG ALLY + RDNA3 pourra tenir sa promesse de 8 Tflops. Et ça va être le feu ! Sinon c'est que c'est juste de la masturbation marketing, et je serais très triste de ma ROG ALLY.
Mais Nanite est justement censé permettre des modèles ultra détaillé sans que ça te bouffe trop en mémoire quand ces modèles sont éloignés, et Nanite permet ce rendu particulier de Matrix Awakens y compris sur Series S, c'est pour ça que j'suis pas plus inquiet que ça...
Bon, après, j'suis d'accord, ça va pas garantir du 1440p 60 fps sur Series S juste pke UE5 est sur Switch dans une version dégradée...
Et puis, un peu de sérieux, il est bcp plus risqué pour un dev de parler en mal d'un support qui le fait vivre et de froisser Microsoft publiquement que de ne rien dire ou de pratiquer la langue de bois.
Rien que le fait que certains se sont plains publiquement, montre qu'il y a un malaise autour de cette machine, et ces quelques témoignages ont infiniment plus de valeurs que le reste.
Et pour connaitre des gens qui bossent dessus, je peux confirmer de sources sures que ces gars ne racontent pas de la merde, le problème bel et bien existant avec la XSS.
Et je viens de tomber la dessus, la XSS s'etait faite défoncer déjà a l'époque par plusieurs mecs de chez ID Software aussi, surtout pour les problèmes de mémoire que j’énonce ici.
Et pareil chez Remedy... tjs sur le meme article.
grievous32
suzukube Pour pouvoir calculer ses lod infinis nanite a besoin de garder les modèles full détails en ram ça me parait évident !
Du coup ça bouffe encore plus que de charger uniquement des lods prédéterminés quand nécessaire à l'ancienne.
J'pense plutot à des chargements déchargements dynamique de texture en ram perso, ma CG n'a que 6Go de Vram sur mon PC (je Hold Back la Gen avec mon PC aussi
Ca serait même débile de toute charger, t'imagine un open world en UE5 faudrait charger le 150 Go de données du jeu dans la Ram, même avec 16 Go de ram c'est pas possible
J'étais pas coiffé, mais j'avais testé Nanite + UE5 + Fortnite sur Series S, ça donnait ça : https://www.youtube.com/watch?v=AH2HUxnTiow
Le seul vrai problème est que les développeurs doivent passer d'avantage de temps sur leur moteur de jeu car ils doivent en plus dès le départ prévoir une version amoindrie pour la series S, la ou dans le passé ils ne se préoccupaient de rien d'autre et laissaient la tâche du portage à d'autre (et souvent d'autres studio).
Le problème se situe dans le processus de développement, rien de plus, c'est juste évident et c'est pour cela que tous les avis ne convergent pas par ailleurs.
Qui croirait un instant que lors du dev de TW3 ou Doom Eternal les mecs se sont dit : on y va doucement les gars, ça doit sortir sur Switch?
Ici la version Série S devra tjs être jouable en mm temps que la Série X, day one, ce qui force les devs a en tenir compte des le départ.
grievous32 raisonnement d'une simplicité presque affligeante... t'as pas du tout de parti pris..
Comme je l'ai dit, avec quasi moitié moins de RAM, une bande passante ridicule du niveau de la gen précédente (PS4 comme PS4 pro) qui peut croire que cette différence de 6go peut être compensé facilement?
Quand tu vois les gains en RAM sur PC qui ne sont généralement même pas de cette ordre alors que les machines sont nettement plus dotés en RAM...
Façon c'est simple, les devs prennent systématiquement les contraintes les plus limitantes comme base, 8go de RAM unifié, c'est de la grosse merde même en 1080p.
Y a des gens qui s'en plaignent, DONC faut accepter qu'elle pose problème d'une certaine manière
TOUT n'est pas blanc ou noir, la nuance ça existe et même beaucoup plus qu'on ne le pense
nyseko oui tout à fait. Par exemple, si FF16 venait a sortir sur Xbox Serie, vu que ça serait un portage d'un jeu next gen (bon après le dev du jeu avait déjà commencé bien avant les kit de dev next gen certainement) on pourra pas dire que la XSS a été un obstacle pour le jeu Ps5.
Maintenant un jeu comme Starfield, ils font avec, mais c'est évident que la ils doivent tenir compte de la machine lors de la conception du jeu, et c'est dommage, je dis pas non plus que c'est dramatique..
J'le redis encore et encore, tant que le PC offrira la moins bonne version d'un jeu qui sort aussi sur XSS, c'est certainement pas la XSS qui freine quoi que ce soit. Même si évidemment, on le conçoit, les dév' veulent offrir un jeu qui soit beau, qui tient la route, qui est stable etc. Tant que ce minimum qu'ils veulent ne sera pas le jeu en full low et que cette version ne sera pas équivalente ou meilleure à ce que propose la XSS, les gens gueulent pour rien.
Id Software te sort que ça les freine alors qu'ils ont toujours moyen de proposer un truc moins bien sur XSS par rapport à la XSX... J'te dis un truc déjà, si un jeu tourne en 4K 60FPS sur XSX, en le foutant en 1080p 60 FPS, tu divises par 4 l'affichage, c'est énorme... Si en plus on te dit "fout ça en 30FPS en plus", tu le divises par 8 parce que t'as 2 fois moins d'images à afficher. Après comme ils sortent aussi leurs jeux sur PC, ils ont aussi leurs paramètres pour jouer sur la qualité des ombres, de la distance d'affichage, de la qualité des textures etc. Et ils ont juste à locker ça. Alors oui, ça offre une expérience moins jolie, mais en même temps quand t'achètes volontairement une console à 300 balles, en tant que consommateur, tu peux pas te plaindre derrière tant que ton jeu est stable et qu'il fonctionne.
En plus, comme ça va chercher l'optimisation, ils auront moins besoin de réduire la qualité de ces divers éléments parce qu'ils arriveront à bidouiller leurs trucs par rapport au PC où ils laissent la main au consommateur de gérer lui-même ses paramètres. Tant que ça tourne sur des PC moins puissants qu'une SS, on peut certainement pas jeter la pierre à cette console qui a démontré qu'elle en avait dans le ventre, et la RAM qui lui fait défaut pour permettre d'atteindre la qualité des SX et PS5, n'a pas l'air de tant poser problème que ça. Il me semble que même dernièrement c'était les dév' de Dead Island 2 qui avaient dit que ça leur posait aucun souci, mais comme j'accorde pas d'importance à tout ce merdier, j'confonds peut-être avec d'autres dév'.
à croire que les tiers sont obligés d'imposer un rendu équivalent entre un jeu qui sort sur PS5 et Xbox Series S.
De facto la Series S est présenté comme une console bien inférrieur technologiquement par rapport aux Series X et PS5, tu es tiers, tu te consacres sur les versions puissantes et la Series S tu baisses la réso au max, fait quelques optis et tu te casses pas trop la tête.
Dans cette configuration, comment peut elle être un boulet pour les autres ?
Deja niveau optimisation, tu te plantes encore complètement, je t'invite a relire mon paragraphe et je te le prouve à nouveau juste en dessous vu que tu me parles de Flight Simulator.
Un vieux PC équipé d'une pauvre GTX 1060 n'a clairement pas a rougir face à la XSS, son 1080p et sa distance d'affichage de l'enfer... : https://www.youtube.com/watch?v=0ZK3Qer_HxAhttps://www.youtube.com/watch?v=0ZK3Qer_HxA
D'ailleurs voici les specs minimal du jeu, on est grosso modo au meme niveau de perf qu'une XSS avec le meme besoin ici :
https://www.xboxygen.com/local/cache-vignettes/L790xH445/microsoft-flight-simulator-2020-specs-pc-d6bb7.jpg?1684171289
Et tu as beau le dire et le redire, c'est faux car tu ne connais pas pour autant les subtilités d'un dev console / pc et notamment en matière de data management qui est complètement différent.
Data management qui est le principal soucis ici de la XSS alors que j'ai tenté de le vulgariser au maximum dans mon poste.
Maintenant faut que tu comprennes aussi la diff entre un portage et un jeu conçu pour un support. Parce que tu insistes avec Flight Simulator, mais on parle d'un jeu pensé pour le PC, sorti AVANT les next gen, dont la conception a du commencer vers le debut de gen Xbox One et le developpement au milieu, alors evidemment dans ce contexte la XSS n'a probablement pas impacté des masses le jeu durant son developpement vu que les next gen ont été définis lors de la phase finale de debugging du jeu.
Apres, pour ce qui est de Flight Simulator 2024, là par contre on ne pourra pas en dire autant, le jeu tiendra compte des specs de la XSS comme minimum, mais a aucun moment ils adopteront leur jeu à la config 'minimale' PC, particulièrement en matière de RAM!! ça n'a jamais été le cas dans l'histoire, ça ne le sera pas plus maintenant
Aussi, à l'heure actuelle, il n'y a effectivement probablement pas énormément de jeux commercialisés qui ont été impactés par la XSS entre :
- les jeux quasi tous X-gen depuis la sortie des consoles
- car Microsoft peine a lancer sa next gen avec des titres exclusifs
- et car les jeux tiers full next gen sont encore pour l'extreme majorité encore en developpement
Mais c'est pas parceque c'est pas commercialisé, que les dev n'ont pas depuis 2-3 ans des problemes pour autant avec cette machine sur certaines titres.
Je le rappelle, sa RAM de l'enfer qui est infiniment plus proche du niveau de ce qu'on avait sur old gen que next gen, pour donner une idée :
PS4 / PS4 Pro: 8Go / environ 200 Go/s de bande passante
XSS : 10 Go / environ 200 Go/s de bande passante
PS5 / XSX : 16 Go / environ 500 Go/s de bande passante
[s]En detournant le debat sur le PC tu es hors sujet, OSEF des configs PC, une derniere fois, les devs ne vont pas brider un jeu pour des configs modestes, pour des PC qui manquent de RAM! ils t'inciteront, comme ils le font depuis tjs et particulierement en ce moment a t'acheter 16 à 32go de Ram et basta! ils vont quand meme pas pourrir leur jeu pour des mecs qui jouent encore avec 8go de ram...
ou de la soit disant mauvaise optimisation PC alors que la Serie S se fera peter toute la gen par des configs PC ultra modeste, tout comme depuis et pendant 10 ans, des petits PC gamers ont pété la old gen, et fait au moins jeu egal a puissance de calcul equivalente.
J'te dis un truc deja, ils ne tourneront pas en 4k/60fps sur XSX, enfin particulierement les AAA qui vont patir de la faiblesse de la XSS je veux dire, et quand bien même, ça change rien au fait que la XSS a pas assez de mémoire pour gerer proprement un jeu qui utilise et rempli bien la RAM de la XSX (c'est factuel!). La mémoire pour l'affichage d'une image finale, c'est pas grand chose au regard de tout ce qu'on y stocke.