A ceux qui sont sur Hitman 3 PC voici les specs recommandées/optimisées par Digital Foundry afin d'avoir un rendu quasi identique à de l'ultra settings sans en payer le prix (gain de presque 20% en performance) :
A titre de comparaison, voici aussi les settings PC que la PS5 utilise :
- Le SSAO au minimum sur PS5 provoque notamment des halos autours des ombres.
- L'impact du Simulation Quality Best / Base est visible au second plan sur le taux de rafraichissement des PNJ par exemple.
DF a fait aussi la comparaison entre les GPU AMD/NVidia :
- Les architectures AMD sont comme très souvent en retrait face à Nvidia vu qu'une simple RTX 2060S (8TFLOPS) est quasi au même niveau qu'une RX 5700XT (9.5TFLOPS) et il n'y a pas de DLSS pour expliquer cela.
- les consoles Next Gen semblent avoir un niveau d'optimisation très moyen sur ce titre en comparaison du PC. Une PS5 (10.3TFLOPS en RDNA 2) fait moins bien qu'une RX 5700XT (9.5TFLOPS en RDNA 1)
La raison principale avancée par DF de ce problème est la mémoire partagée entre le CPU et le GPU sur console qui empêcherait le GPU d'avoir suffisamment de bande passante pour lui seul afin d'atteindre le même rendu graphique/résolution que sur PC.
Résultat, une 2060S semble offrir de meilleure performance qu'une PS5 sur ce titre, tandis que la Serie X se situerait à mi chemin entre une 2060S et et une 2070S.
En attendant de futurs patchs et notamment l'ajout du Ray Tracing est attendu dans les prochains mois.
Je trouve quand même assez dingue que des consoles NG patinent autant avec un jeu comme Hitman 3.
C’est quand même un moteur graphique de 2016 simplement amélioré
Tu vas me dire IOI avait parler de 4K 60 fps avec RT sur la PS5 et la SX alors que finalement non.
Un moment donné, va falloir que les devs travaillent sur l'optimisation et pas qu'un peu.
Encore sur ce jeu ça va, mais The Medium par exemple, ça en devient pathétique, les mecs tu pourrais leur donner le matos de la Nasa, qu'ils n'arriveraient à rien.
arquion Il y a tellement de supports, d'architectures, de machines différentes pour des moteurs toujours plus complexes que l'optimisation de nos jours... A moins de faire un jeu exclusif à un seul support (ce qui ne se fait presque plus)...
Et encore, les architectures exotiques des consoles c'est fini et heureusement. Elles sont devenues des "vulgaires" PC, avec des optimisations matériels en moins car l'enveloppe tarifaire est réduite (mémoire partagée, pas d'infinity cache sur next gen malgré RDNA 2, etc...)
Trop bien optimisé sur PC ou trop mal sur PS5 ? Non parce qu'une 5700XT, voilà quoi c'est du moyen de gamme périmé pourtant. Si il y avait du DLSS la 2060 Super ce serait envolée alors que c'est une carte d'ancienne génération.
le soucis est de comparer les consoles au pc, les derniers jeux sortant sur ps4 ont du mal sur un pc avec une 1070 alors que la ps4 avec une carte graphique équivalent a une gtx 750 TI arrive a sortir des jeu comme ghost ou tlou2 voir même horizon que mon pc n'arrive pas a lancer correctement même en minimum
alors oui l'optimisation est la mais dans 7 ans la series X et la ps5 sortiront des jeux que la 3080 ne saura plus faire tourner
C'est pas fou sur console mais IO est sur son propre moteur le Glacier est Hitman 3 est sorti sur quelque chose comme sept plate-formes différentes donc faut pas trop en attendre non plus dans ce genre de configuration.
Ce qui est drôle c'est que sur call of Duty cold War avec les mêmes réglages et résolution ps5 il faut une 2080 super sur pcpar contre hitman 3 pour avoir l'équivalent ps5 il faut une 2060 super et même moins que ça !!!
Où est l'erreur ?
marceaupilami Parce que ce n'est pas les mêmes réglages justement. Quelqu'un a fait la même remarque que toi sur ResetEra, et Alex (l'auteur des vidéos Digital Foundry comparatives PC dont celle-ci) a répondu. Certains effets ont une résolution bien inférieure sur consoles next gen que sur PC sur Valhalla et COD.
dans 7 ans la series X et la ps5 sortiront des jeux que la 3080 ne saura plus faire tourner
Waaaah!! Une RTX 3080 rien que ça t'y es pas allé avec le dos de la cuillère la vache
Non seulement ça n'arrivera jamais, mais en plus je me demande sur quelle donnée factuelle venue du futur tu t'appuies pour un dire un truc pareil
L'architecture de Nvidia avec des cores physiques pour le RT et le DLSS est plus viable pour les 10 prochaines années que le RDNA 2 d'AMD (meme si sur PC leur GPU ont plus de VRAM).
Un petit parallèle avec la génération PS4 peut etre?
Cyberpunk 2077 tourne de façon jouable en 1080p sur une GTX 780 qui était un GPU haut de gamme sorti en même temps que les PS4/X1.
marceaupilami j'ai juste fait une analogie entre PS4/GTX780, aussi ridicule qu'elle soit pour comprendre la logique de dire qu'une PS5 fera des trucs qu'une RTX 3080 ne fera pas.
Comme si sur PC, des GPU haut de gamme étaient bon pour la poubelle au bout de 3 ans et se faisait massacrer sur la durée par les consoles alors que c'est juste faux.
Quand tu vois le rendu rarement en 1080p, 30fps, low des jeux recents sur la old gen, jusque là, c'est à la porté de bcp de vieux GPU PC.
marceaupilami la PS5 à la même bande passante que les RTX 2060S et 5700XT.
La série X à 10Go de mémoire plus rapide que ça encore et 6Go moins rapide qui est plutôt utilisé par les echanges avec le CPU et tout ce qui est moins lourd que du calcul graphique en gros.
Ca demande plus de taff que la PS5 mais ça permet de faire plus facilement du rendu 4k, couplé avec un GPU avec plus de shaders cores.
51love je me base simplement sur le fait qu'une ps4 fat sait faire tourner des jeu qu'une 1070 ne sais plus faire tourner ou très difficilement alors que la 1070 n'existait même pas lors de la sortie de la ps4
et tu prend comme exemple cyberpunk , le jeu le moins bien optimiser du monde pour donner un exemple... d'ailleurs même sur pc il a du mal
moi je t'en prend un autre horizon avec ma 1070 je suis obliger de le mettre en min et même comme ca j'ai des chutes de fps récurrente mon expérience en 1070 est moins bonne que ma ps4 fat...
maintenant mon avis ne concerne que moi, mais je pense que arriver fin de la gen on en sera au même constat...
j'ai aussi remarque que les config minimum donnée sur pc ne correspondent pas a la réalité, oui le jeu se lance en config minimum , ca ne le rend pas jouable pour autant a moins de le mettre en 800 *600
keiku tu trouveras tjs des exemples et contre exemples mais globalement une 1070 c'est très très largement au dessus d'une PS4 fat.
Soit horizon est une exception mais il est pas réputé pour être optimisé Nvidia, soit tu devrais tkt des perfs de ton PC...
L'exemple de Cyberpunk était juste pr tourner en dérision ton propos car pour le coup il tourne sur un vieux gpu pc et est pas loin d'être injouable par moment sur old gen donc...
arquion euh non pas du tout et c'est un total non sens désolé elle a 10 go de ram dédié au gpu avec une bande passante de 560 go/s et 6 go pour le cpu et systeme a 336 go/s kratoszeus c'est se que je dis elle fonctionne comme un pc contrairement a la ps5 ou les anciennes xbox 360 et one.
raoh38, elle a juste 2 vitesses pour potentiellement 2 usages, c'est tout.
Si demain un jeu demande 11 ou 12go pour le gpu et seulement 2go pour le cpu (ou un jeu qui demande 6-7go pour le CPU, et seulement 5 pour le gpu) , la Serie X ne pourrait pas le faire fonctionner?? bah si, ça prendrait sur l'autre, c'est tout.
"La raison principale avancée par DF de ce problème est la mémoire partagée entre le CPU et le GPU sur console qui empêcherait le GPU d'avoir suffisamment de bande passante pour lui seul afin d'atteindre le même rendu graphique/résolution que sur PC."
Ben je pensais que tous les bottleneck sur consoles ont été supprimé ? On nous aurai donc menti ?
arquion elle a exactement deux bus différents et des puces différentes se qui changent la capacité de bande passante, bien entendu tout ceci est prévu (et les architectes de la seriex le disent officiellement)et tu as donc 10 go de ram ultra rapide pour le gpu et le reste pour le cpu (sachant que le cpu n'a absolument pas besoin d'une grosse bande passante qui serait gaspillé) ... tu ne peux pas les faire travailler pour le gpu , sa ralentirait tout le système et serait inprogrammable donc contrairement a la ps5 ou a la xone se n'est pas une mémoire unifiée avec la même bande passante, autre philosophie qui se rapproche du pc et c'est pas un mal au contraire. kratoszeus on est encore loin d'arriver a exploiter correctement les nouvelles consoles, la se sont de conclusions ponctuelles qui seront contredites des que les développeurs auront entièrement basculé sur next gen.
Keiku Moins bonne ça veut dire le double de framerate + ultra avec une définition stable ? J'espère bien que ton avis concerne que toi car là ça relève de la psychiatrie https://youtu.be/Nq8vN74ZWio. Dans 99% des cas les configurations recommandées sur PC son sur-évalués, je sais de quoi je parle, ça fait 10 ans que je le rabâche sur chaque news. La carte graphique minimale requise pour Nier Automata c'est une 770, sauf que je l'ai fait sur une 750Ti et qu'il tournait plus que bien (bien mieux que sur la PS4 Fat), d'ailleurs cette carte avec la 970 bouffe la PS4 Pro sur pas mal de jeux.
raoh38 Oui je me doute pas, puis dévlopper sur pc, ps4, xbox one, series x, s et switch, ca facilite pas l'optimisation des new gen . Comme a dit Ryan on devrait voir les vraies exploitations des next gen d'ici un an.
kratoszeus c'est sur ,plus xone x et ps4 pro...et fait chier la pénurie des composants soc qui vont ralentir l'adoption des consoles ...finalement halo infinite aura droit a un deuxième lancement pour la serie x quand celle -ci sera vraiment disponible en deuxième partie d'année
raoh38 j'ai un pote qui bosse sur la série x et si ma "mémoire" est bonne il a accès à 13.5 go unifié (car 2.5go réservé par le système sur la RAM lente).
Ensuite effectivement il faut faire attention à comment tu manipules tout ça car si tu depasses les 10go pour le GPU...
L'idée est d'utiliser cette RAM comme sur PC dans tous les cas oui et de mettre les calculs lourds sur cette RAM.
Apres dans les faits utiliser que la RAM lente pr tout calcul qui n'est pas GPU cest compliqué car il n'y aurait que 3.5go sur la memoire lente, les jeux auront souvent besoin de plus notamment les Open World pour le streaming.
51love Non mais sur les consoles old gen on a 8 Go de ram pour plus de 30 sec de jeux car le HDD apathique met trop de temps pour charger la ram, oui la on peut dire que la bande passante disponible à la seconde est nul ! C'est pour ça que sur pc pour palier à ça on beaucoup plus de ram ! La avec la PS5 on a 16Go de ram pour 1-2 sec de jeux ce qui est 30 fois plus mais bon encore faut il que le moteur du jeux soit optimiser pour ce qui n'est clairement pas le cas de hitman 3 car il doit tourner sur old gen !
Si la ps5 et la séries x manquait de bande passante comment Epic avec l'unreal engine aurait pu faire passer des milliards de polygones avec des textures 8k si la ps5 avait une faible bande passante ? Après certes du à ses propres limitations au niveaux du GPU les calculs se faisait en moyenne à 1440p et 30fps.
marceaupilami en fait il y a 2 choses différentes. Il y a le taux de transfert du support de stockage vers la machine qui va exécuter ton jeu dont tu parles et tu as raison, les jeux ne l'exploitent pas encore réellement à part certains cas qui n'ont plus le temps de chargement comme Miles Morales.
Et tu as le taux de transfert entre la RAM et le GPU dont il est question ici(unifiée sur console cad partagé entre le CPU et le GPU même si la Série X va globalement bosser comm un PC avec de la RAM dédiée au GPU extrêmement rapide).
Si je dis pas de connerie sur les derniers SSD on est de l'ordre de quelques GB/s alors que la RAM GPU c'est plusieurs centaines de GB/s. On est absolument pas dans le même besoin et le même ordre de grandeur.
Ça se comprend car le GPU doit avoir un acces instantané à la donnée pr pouvoir générer une image 4K en quelques ms et l'envoyer à l'écran.
51love Oui je comprends bien mais là ça devient complexe mais regarde ça revient au même parce que pour palier au faible niveau de ram des next gen on a mis un SSD hyper rapide pour pouvoir charger la ram toutes les deux secondes c'est un moyen d'y palier et en plus ça supprime les temps de chargement mais il faut un moteur de jeux adapté à ce nouveau paradigme ce qui n'est pas le cas de hitman 3 sinon il ne pourrai pas tourner sur old gen !
5120x2880 j'ai une 1070 et pour moi les dernier jeux ne tourne pas beaucoup mieux et parfois moins bien que sur ma ps4 fat, je parle juste par expérience pas par chiffre
51love je ne suis pas la pour dire que la console est mieux que le pc, je dis juste que ca ne sert a rien de les comparer entre eux, la console affiche dans certain cas des capacité meilleurs que des pc qui lui sont normalement globalement supérier et parfois c'est l'inverse et que sur la durée les consoles semble selon moi tenir plus longtemps avec un ratio plus élever qualité en fonction de leur spécificité
mais de toute façon on fera le constat en fin de gen series X/ ps5
Keiku C'est précisément un benchmark du jeu sur la 1070 que je t'ai mis en lien, l'expérience est absolument pas moins bonne que sur PS4 comme tu dis.
moi je t'en prend un autre horizon avec ma 1070 je suis obliger de le mettre en min et même comme ca j'ai des chutes de fps récurrente mon expérience en 1070 est moins bonne que ma ps4 fat...
Horizon sur une 1070 c'est framerate doublé et jeu en ultra, donc non l'expérience est pas moins bonne qu'une version low en 30fps.
5120x2880 bein tu peux dire ce que tu veux, toi t'a le benchmark , moi j'ai le pc, j'ai des freeze constant des chutes framerate énorme et gâchant littéralement l'expérience de jeu...
et tout les benchmark que tu me donneras n'y changera rien... mon expérience c'est du direct et du réel
keiku tu devrais réaliser des benchmarks de ta machine et comparer sur le net car visiblement tes perfs sont pas au niveau de ce qu'elle peut produire.
51love se n'est pas unifié se sont des types de puces ram différentes et elles n'ont pas le même bus mémoire.Les architectes de microsoft l'ont plusieurs fois répétés, c'est fait exprès et le gpu de la serieX a accès au 10 go de ram avec 550 gb de débit.
raoh38 Donc même si un mec qui dev dessus te dirait "Non non, j'ai bien accès à 13,5go de mémoire unifié", tu continuerais de lui soutenir mordicus qu'il a tort ??
C'est juste une question.
raoh38 "Memory performance is asymmetrical - it's not something we could have done with the PC," explains Andrew Goossen "10 gigabytes of physical memory [runs at] 560GB/s. We call this GPU optimal memory. Six gigabytes [runs at] 336GB/s. We call this standard memory. GPU optimal and standard offer identical performance for CPU audio and file IO. The only hardware component that sees a difference in the GPU."
In terms of how the memory is allocated, games get a total of 13.5GB in total, which encompasses all 10GB of GPU optimal memory and 3.5GB of standard memory. This leaves 2.5GB of GDDR6 memory from the slower pool for the operating system and the front-end shell. From Microsoft's perspective, it is still a unified memory system, even if performance can vary. "In conversations with developers, it's typically easy for games to more than fill up their standard memory quota with CPU, audio data, stack data, and executable data, script data, and developers like such a trade-off when it gives them more potential bandwidth," says Goossen.
Keiku Le mec qui fait le benchmark a la carte aussi champion. Toi tu fais juste des généralités avec ton PC qui a moins de perf qu'une core 2 duo et une 1060. Pose toi les bonnes questions au lieu de pleurer si ta PS4 Fat fait mieux qu'une 1070.
arquion mais pas du tout as tu simplement essayé d'analyser et de comprendre se que le mec a dit ? Il te dit clairement qu'il y a 13,5 go de ram au total pour le jeu vidéo dont 10go de ram de 550 gb/s uniquement disponible pour le gpu et le reste avec une bande passante de 330 pour le cpu, qu'es-ce que tu n'arrives pas a comprendre ? Sa n'a rien avoir a se que la ps5 propose avec exactement les mêmes puces et la même bande passante qu'ils dispatchent a leur gré, la sur seriex c'est pas possible...le mec te dit comment est alloué la mémoire et toi se que tu retiens que sa phrase de mémoire unifiée se qui est un non sens (et physiquement ingérable) car le mec veut dire que ce pole unifié ce sont les 13,5 go au total pour le gaming...
Je crois que tu n'as pas du tout comprit se que signifie mémoire unifiée et son but....la serie x utilise le même type d'architecture que le pc en séparant techniquement les pools de ram avec des puces moins rapides et un bus mémoire moins rapide pour le cpu et la ram ultra rapide et le bus plus gros uniquement pour le gpu, tu ne peux pas utiliser par exemple la ram dédiée au cpu et celle au gpu en même temps car elles sont physiquement différentes contrairement a la ps5 (et ps4,pro, x360 ,xboxone , xboxonex) qui utilise les mêmes puces et le même bus mémoire avec la même bande passante .Essayer de faire cela avec la ram de la seriex serait un total désastre et goulot d’étranglement énorme, c'est comme si les gpu pc utilisait la ddr en même temps que leur mémoire vidéo, totalement irréaliste et sa n'arrivera jamais sur serie x qui restera aussi cloisonné a 10 go de ram la plus rapide sur son gpu et 3.5 de ram lente pour son cpu se qui est le contraire d'une mémoire unifiée utilisable comme desirée car identique !
c'est pas fou du tout ah et le RT n'etait meme pas la!
C’est quand même un moteur graphique de 2016 simplement amélioré
Tu vas me dire IOI avait parler de 4K 60 fps avec RT sur la PS5 et la SX alors que finalement non.
Encore sur ce jeu ça va, mais The Medium par exemple, ça en devient pathétique, les mecs tu pourrais leur donner le matos de la Nasa, qu'ils n'arriveraient à rien.
Et encore, les architectures exotiques des consoles c'est fini et heureusement. Elles sont devenues des "vulgaires" PC, avec des optimisations matériels en moins car l'enveloppe tarifaire est réduite (mémoire partagée, pas d'infinity cache sur next gen malgré RDNA 2, etc...)
alors oui l'optimisation est la mais dans 7 ans la series X et la ps5 sortiront des jeux que la 3080 ne saura plus faire tourner
Où est l'erreur ?
https://www.resetera.com/threads/hitman-3-pc-analysis-ps5-series-x-comparisons-digital-foundry.366410/#post-56947826
Waaaah!! Une RTX 3080 rien que ça t'y es pas allé avec le dos de la cuillère la vache
Non seulement ça n'arrivera jamais, mais en plus je me demande sur quelle donnée factuelle venue du futur tu t'appuies pour un dire un truc pareil
L'architecture de Nvidia avec des cores physiques pour le RT et le DLSS est plus viable pour les 10 prochaines années que le RDNA 2 d'AMD (meme si sur PC leur GPU ont plus de VRAM).
Un petit parallèle avec la génération PS4 peut etre?
Cyberpunk 2077 tourne de façon jouable en 1080p sur une GTX 780 qui était un GPU haut de gamme sorti en même temps que les PS4/X1.
https://www.youtube.com/watch?v=m_qgKPdvtLI
Tu nous rappelles rapidement comment tourne Cyberpunk 2077 sur old gen?
Les GTX 780, on est encore ajd a un niveau de perf similaire à de la PS4 Pro/GTX 970.
https://www.youtube.com/watch?v=apHj0pDLgUU
Comme si sur PC, des GPU haut de gamme étaient bon pour la poubelle au bout de 3 ans et se faisait massacrer sur la durée par les consoles alors que c'est juste faux.
Quand tu vois le rendu rarement en 1080p, 30fps, low des jeux recents sur la old gen, jusque là, c'est à la porté de bcp de vieux GPU PC.
Tu te bases sur quoi pour affirmer une telle chose ?
Sinon, ce n'est pas la première fois qu'une simple RTX 2060 Super fait aussi bien que les consoles next-gen.
Pour rappel la RTX 3060 qui va débarquer fin février et qui pourrait égaler les performances d'une RTX 2070 / RTX 2070 Super.
La série X à 10Go de mémoire plus rapide que ça encore et 6Go moins rapide qui est plutôt utilisé par les echanges avec le CPU et tout ce qui est moins lourd que du calcul graphique en gros.
Ca demande plus de taff que la PS5 mais ça permet de faire plus facilement du rendu 4k, couplé avec un GPU avec plus de shaders cores.
et tu prend comme exemple cyberpunk , le jeu le moins bien optimiser du monde pour donner un exemple... d'ailleurs même sur pc il a du mal
moi je t'en prend un autre horizon avec ma 1070 je suis obliger de le mettre en min et même comme ca j'ai des chutes de fps récurrente mon expérience en 1070 est moins bonne que ma ps4 fat...
maintenant mon avis ne concerne que moi, mais je pense que arriver fin de la gen on en sera au même constat...
j'ai aussi remarque que les config minimum donnée sur pc ne correspondent pas a la réalité, oui le jeu se lance en config minimum , ca ne le rend pas jouable pour autant a moins de le mettre en 800 *600
Soit horizon est une exception mais il est pas réputé pour être optimisé Nvidia, soit tu devrais tkt des perfs de ton PC...
L'exemple de Cyberpunk était juste pr tourner en dérision ton propos car pour le coup il tourne sur un vieux gpu pc et est pas loin d'être injouable par moment sur old gen donc...
Si demain un jeu demande 11 ou 12go pour le gpu et seulement 2go pour le cpu (ou un jeu qui demande 6-7go pour le CPU, et seulement 5 pour le gpu) , la Serie X ne pourrait pas le faire fonctionner?? bah si, ça prendrait sur l'autre, c'est tout.
Ben je pensais que tous les bottleneck sur consoles ont été supprimé ? On nous aurai donc menti ?
kratoszeus on est encore loin d'arriver a exploiter correctement les nouvelles consoles, la se sont de conclusions ponctuelles qui seront contredites des que les développeurs auront entièrement basculé sur next gen.
Ensuite effectivement il faut faire attention à comment tu manipules tout ça car si tu depasses les 10go pour le GPU...
L'idée est d'utiliser cette RAM comme sur PC dans tous les cas oui et de mettre les calculs lourds sur cette RAM.
Apres dans les faits utiliser que la RAM lente pr tout calcul qui n'est pas GPU cest compliqué car il n'y aurait que 3.5go sur la memoire lente, les jeux auront souvent besoin de plus notamment les Open World pour le streaming.
Si la ps5 et la séries x manquait de bande passante comment Epic avec l'unreal engine aurait pu faire passer des milliards de polygones avec des textures 8k si la ps5 avait une faible bande passante ? Après certes du à ses propres limitations au niveaux du GPU les calculs se faisait en moyenne à 1440p et 30fps.
Et tu as le taux de transfert entre la RAM et le GPU dont il est question ici(unifiée sur console cad partagé entre le CPU et le GPU même si la Série X va globalement bosser comm un PC avec de la RAM dédiée au GPU extrêmement rapide).
Si je dis pas de connerie sur les derniers SSD on est de l'ordre de quelques GB/s alors que la RAM GPU c'est plusieurs centaines de GB/s. On est absolument pas dans le même besoin et le même ordre de grandeur.
Ça se comprend car le GPU doit avoir un acces instantané à la donnée pr pouvoir générer une image 4K en quelques ms et l'envoyer à l'écran.
51love je ne suis pas la pour dire que la console est mieux que le pc, je dis juste que ca ne sert a rien de les comparer entre eux, la console affiche dans certain cas des capacité meilleurs que des pc qui lui sont normalement globalement supérier et parfois c'est l'inverse et que sur la durée les consoles semble selon moi tenir plus longtemps avec un ratio plus élever qualité en fonction de leur spécificité
mais de toute façon on fera le constat en fin de gen series X/ ps5
moi je t'en prend un autre horizon avec ma 1070 je suis obliger de le mettre en min et même comme ca j'ai des chutes de fps récurrente mon expérience en 1070 est moins bonne que ma ps4 fat...
Horizon sur une 1070 c'est framerate doublé et jeu en ultra, donc non l'expérience est pas moins bonne qu'une version low en 30fps.
et tout les benchmark que tu me donneras n'y changera rien... mon expérience c'est du direct et du réel
C'est juste une question.
In terms of how the memory is allocated, games get a total of 13.5GB in total, which encompasses all 10GB of GPU optimal memory and 3.5GB of standard memory. This leaves 2.5GB of GDDR6 memory from the slower pool for the operating system and the front-end shell. From Microsoft's perspective, it is still a unified memory system, even if performance can vary. "In conversations with developers, it's typically easy for games to more than fill up their standard memory quota with CPU, audio data, stack data, and executable data, script data, and developers like such a trade-off when it gives them more potential bandwidth," says Goossen.
Je crois que tu n'as pas du tout comprit se que signifie mémoire unifiée et son but....la serie x utilise le même type d'architecture que le pc en séparant techniquement les pools de ram avec des puces moins rapides et un bus mémoire moins rapide pour le cpu et la ram ultra rapide et le bus plus gros uniquement pour le gpu, tu ne peux pas utiliser par exemple la ram dédiée au cpu et celle au gpu en même temps car elles sont physiquement différentes contrairement a la ps5 (et ps4,pro, x360 ,xboxone , xboxonex) qui utilise les mêmes puces et le même bus mémoire avec la même bande passante .Essayer de faire cela avec la ram de la seriex serait un total désastre et goulot d’étranglement énorme, c'est comme si les gpu pc utilisait la ddr en même temps que leur mémoire vidéo, totalement irréaliste et sa n'arrivera jamais sur serie x qui restera aussi cloisonné a 10 go de ram la plus rapide sur son gpu et 3.5 de ram lente pour son cpu se qui est le contraire d'une mémoire unifiée utilisable comme desirée car identique !