Pan ! Dans les dents !
DICE développe actuellement Star Wars Battlefront, le nouveau jeu de la série qui sortira en décembre prochain, conjointement avec le nouveau film. C'est dire si les joueurs l'attendent...
Sauf qu'un membre influent de l'industrie américaine du jeu vidéo et qui répond au pseudo de Tidux, a jeté hier un gros pavé dans la mare.
Il explique avoir joué au jeu et en avoir pris plein les yeux. Jusque-là, rien de bien anormal. Juste une révélation excitante, en fait. Certes. Sauf qu'il explique que la version PC et la version PS4 taperont dans le 1080p niveau résolution. Pas la Xbox One. Elle sera encore "laissée pour compte" et n'affchera sans doute que du 900p.
Pire encore. Il explique que la plateforme leader pour le développement reste le PC. Puis la PS4. Et en dernier, la Xbox One . https://twitter.com/Tidux/status/588123731152736258
Bref, coup dur pour la Xbox One. Pas au niveau. Pas assez puissante sans doute...?
Bien avant le D-ONE des consoles on savais la ONE inferior (voir morte née) et pourtant, c'est avec elle ou j'ai pris le plus de claques dans la gueule concernant les exclus....
Après pour les multis ça se joue à trop peu de diff pour crier au scandale !
Bah non elle est pas "laissée pour compte" la XONE. Le jeu a juste été optimisé en 900p. Quand tu "optimise" les réglages pour ton jeu sur PC, bah tu cherches un bon compromis entre framerate et effets. Là c'est la même chose. Les devs cherchaient un bon compromis entre framerate et effets, et pour le hardware de la XONE l'un des réglages retenus a apparemment été le 900p.
Ils vont pas coder le jeu en ASM juste parce le SDK de base ne leur permet pas d'atteindre 1080p avec les effets qu'ils veulent et un framerate potable.
900p est la résolution de la Xbox One, 1080p est la résolution de la PS4.....ca fait des mois que c'est comme ça, tout le monde le sait. La PS4 étant plus puissante, il est plus facile et moins contraignant d'atteindre cette résolution sachant que la pluspart des jeux sont leade sur PC et portés sur console.
La Xbox One s'exprime pleinement sur ses exclues qui elles sont optimisées a fond......
Maintenant, pour troller un peu , si c'est pour afficher absolument du 1080p et avoir un framerate inconstant .......
Qui avait dit que le PC deviendrait la lead plate-forme et que les 2 sous PC auraient juste droit à des portages ? Quand je pense que certains m'insultaient et ce foutaient de ma gueule
Tout les articles qui vantent le succés de la ps4 est basé sur les jeux multi plateforme,à quand un article d une future bombe en exclu ps4?
Et si le 1080p est un standard sur ps4,pourquoi a chaque foi faire un article pour le préciser?
On voit bien que les jeux ps4 ne sont pas non plus en 1080p 60fps,ce qui veut dire que faire du 1080 est leur limite,donc pas très loin de la one,alors arrêtez de croire qu elle est dix fois plus puissante que la one,et quand on voit en plus qu ils ont même pas été capable de faire d une exclu d un jeu de course reporter mainte et mainte fois du 60 FPS...hum hum!
900p osef... On va encore avoir une stabilité de framerate meilleur sur XBOX One que sur PS4, c'est tout... Et puis vu le niveau technique de Ryse en 900p, ça m'va largement !
kalas28w
Tain mais ferme ta boîte à caca qui te sert de bouche. Il n'est pas question de WiiU dans cet article alors pourquoi tu ramènes ça sur le tapis ?
La WiiU est en marge des deux autres consoles comme l'a été la Wii en son temps, personne n'essaie de prouver le contraire que je sache.
ellie en effet,ce sont de très bon jeux,mais le succès qu a actuellement la ps4,on serait en droit de penser que c est grace à ses exclu,dommage que ce ne soit pas le cas.
tripy73 ben on peut continuer de se foutre de ta gueule car tu racontes de la merde.
La PS4 et la XB1 ne sont pas des "sous-PC". Ce n'est pas parce que la plupart des tiers les utilisent comme telles et qu'elles sont équipées de proc x86 et de GPUs GCN qu'elles le sont.
Les deux consoles ont de la mémoire unifiée (même si la One a de l'esram sur un pool séparé) et pas de port PCIE qui ajoute de la latence entre le CPU et le GPU. C'est une différence majeure avec le PC. Ainsi qu'un espace mémoire commun pour qui veut faire du computing "asynchrone" de tâches non liées aux graphismes. Il y a également les volatile bits + des drivers développés par Sony et Microsoft (moins limitants que les drivers AMD PC qui ont toujours été un problème). Ainsi que des APIs plus efficaces quand on se donne la peine de vraiment taper dans le low level programming (comme les studios first party).
Pour preuve, à la dernière GDC, le lead programer de Sunset Overdrive (Xbox One) explique qu'ils ont dû repenser leur façon de programmer le jeu en évitant de faire trop de choses en GPGPU simplement pour éviter de fermer la porte à un futur portage PC Du coup les tâches trop sensibles à la latence sont restés sur le CPU. Autrement cela rendrait la conversion du code extrêmement compliquée.
Une preuve de plus que les consoles ne sont pas de simples PC pour ceux qui en doutaient encore. Cela corrobore tout ce que j'ai pu lire sur le sujet et ça sort de la bouche d'un développeur reconnu pour son expertise technique dans l'industrie
La Wii-u n'a absolument rien de différent. C'est une console centrée GPU tout comme la PS4 et la XB1 et équipée de composants dérivés du PC.
Les Nintendo fanboys sont vraiment gonflants avec leur Wii-U "pas pareille que les autres"
J'ajouterais que les GPUs de la PS4 et de la One sont tous les deux équipés de ACEs que l'on retrouve uniquement sur certains modèles de GPUs PC AMD notamment sur l'architecture GCN. La PS4 en possède 8 et 2 pour la One.
Sur PC leur utilisation est compliquée (AMD essaie d'encourager les devs à le faire en ce moment) car quand tu développes sur PC tu dois toujours faire en sorte que ton programme soit compatible avec un maximum de configs du marché. Un autre avantage des consoles qui n'est pas du tout exploité actuellement et encore moins chez les tiers qui font du portage bête et méchant.
Enfin bref continuez votre branlette sur la Wii-U en descendant les deux autres machines comme vous le faites et ensuite vous viendrez vous plaindre que les gens trollent sur les news Nintendo
leonr4 Oui, spec pour spec et de manière plus générale au niveau de ce qu'elle peut afficher, elle est effectivement moins puissante.
Non, car c'est du PowerPC, donc une archi RISC, contrairement aux PC et eux deux autres qui sont des CISC. Chacun a ses avantages et ses inconvénients.
Exemple récent : Apple qui est passé de processeur RISC vers des processeurs CISC (soit la nouvelle génération X86 d'Intel) avec des résultats, mmh... mitigés.
kayama
Sur le GPGPU : Mouais sur l'avance supposé des consoles en la matière.
C'est tout juste la première génération de consoles qui va vraiment dans ce sens là. En fait, c'est vraiment la mémoire unifiée ainsi que les types de RAMs spécialisés qu'embarquent chacune des consoles qui leur donnent un avantage majeur en terme de GPGPU (dont la performance dépend énormément de la bande passante mémoire), mais même avec ça les API GPGPU sur PC, notamment comme CUDA donnent quand même de très bons résultats, souvent devant (quoique plus tellement de nos jours ) les implémentations OpenCL d'AMD.
Donc non, si les devs que tu cites avaient vraiment voulu faire du GPGPU, il aurait juste fallu implémenter le support d'OpenCL et peut-être se faire chier à implémenter une solution pour CUDA (vu la performance misérable d'OpenCL sur hardware NVIDIA par rapport à AMD... sont même en retard d'une version je crois), et je pense que les perfs sur PC auraient juste été monstrueuses.
Les consoles, actuelles et passées sont une véritable bénédiction pour le futur du gaming sur PC, mais quand on veut faire aussi bien que possible sur l'ensemble des plate-formes, les outils sont à dispositions.
Le dev raconte juste du bullshit parce que ça aurait nécessité plus de boulot d'implémenter le GPGPU sur PC... Ou mieux, de viser directement Vulkan ou DX12 (voire les deux), qui rendront ce genre de choses encore plus accessible sur PC dans un futur proche.
tu dois toujours faire en sorte que ton programme soit compatible avec un maximum de configs du marché
.
Non, tu dois le faire une fois. Et quand c'est bien fait, ça marche très bien. Les APIs actuelles sont assez abstractives pour ça. C'est une problème réel pour le PC, mais c'est moins compliqué que les devs tentent de nous le faire croire en faisant comme si on était encore dans les années pré-ISA où les programmes devaient presque être réécrits et recompilés d'une machine à l'autre.
darkeox on ne parle pas du tout de la même chose. Je ne suis pas en train d'opposer les PC aux consoles. Ce genre de débat ne m'intéresse pas. Je dis simplement que les consoles ne sont pas et ne seront jamais des PC et non que l'un est meilleur que l'autre.
Sinon tu confonds compute shaders et Async Compute. Ce qui a dû gêner le lead programmeur d'Insomniac c'est surtout les soucis de latence entre CPU/GPU quand il a voulu faire tourner des tâches "asynchrones" non-graphiques sur le GPU au lieu du CPU. Sur consoles c'est possible grâce à un espace mémoire commun entre CPU/GPU qui permet d'éviter les temps idle lors des échanges de données (et donc la latence). Sur PC, c'est plus compliqué. Il dit que le problème sera atténué (mais pas réglé puisque propre au hardware) grâce à DX12/Vulkan. Du coup il est resté sur du SMID pour le gameplay code et quelques autres trucs pour ne pas rendre le portage sur PC trop compliqué. Cela est une preuve parmi d'autres que les consoles ont des spécificités qui les différencient d'un PC. Cela a toujours été le cas d'ailleurs et la PS4 / XB1 n'échappent pas à cette règle.
darkeox et surtout tu ne peux pas ignorer le problème majeur des jeux jeux multi à l'heure actuelle à savoir la manière dont ils sont portés sur consoles via des wrappers DX sur l'API "high level" de la PS4 (GNMx) au lieu de passer par l'API low level (GNM) ce qui ne peut que donner des résultats médiocres et beaucoup se permettent de juger les capacités des consoles en se basant sur ça
T'as combien de jeux qui exploitent intelligemment les cores du Jaguar CPU aujourd'hui ? Les "fiber jobs" ? Seule une poignée de développeurs doivent savoir ce que c'est. Les ACEs ? Même pas en rêve (même chez les studios first party, ce n'est pas encore la norme).
Il y aura du mieux quand il y aura des jeux PC pensés nativement pour DX12/Vulkan ce qui devrait faciliter l'optimisation des portages sur consoles mais en attendant, beaucoup de connards continuent de parler de "consoles au rabais" alors que de toute évidence le problème vient de l'approche technique totalement inadaptée et/ou du faible budget alloué par les éditeurs pour ce type de portages.
De plus une console ça se compare à la génération de consoles précédente et non au monde du PC qui évolue en permanence.
kayama: J'ai parlé d'architecture, non pas de composants et de leur spécificités, seule la gestion de la mémoire est totalement différente à cause de l'unification de celle-ci, là dessus nous sommes d'accord
Au passage, de nombreux développeurs qui travaillent sur des moteurs plus avancées (jeux de 2ème et 3ème génération) estiment qu'à terme, il restera moins de 30% (voir moins) du code graphique qui tournera sur le CPU Jaguar de la PS4/XB1 (+ tout le gameplay code + une partie de l'IA et de la physique par exemple). Tout le reste basculera sur le GPU (de manière asynchrone pour les tâches liées aux graphismes). Les studios first party pourront se permettre d'aller encore un peu plus loin.
C'est la seule façon d'exploiter réellement le potentiel des nouvelles consoles.
Le CPU (même s'il est sous-exploité actuellement) est et restera le principal bottleneck de la PS4/XB1. Mais il passera au second plan dans les années à venir (sauf pour les studios qui auront un train de retard) et cela fera une grosse différence. Cela fait des années que j'en parle et on y arrive bientôt (même si certains devs ont déjà commencé à le faire un peu).
Petite correction de mon message du dessus : quand il a voulu faire tourner des tâches "asynchrones" non-graphiques sur le GPU au lieu du CPU
Je voulais dire : ''quand il a voulu faire tourner sur le GPU (plus véloce) des tâches non-graphiques qui nécessitent une synchronisation et une très faible latence CPU/GPU''
Ok sur ton premier post, effectivement, je n'avais pas du tout compris la problématique des tâches asynchrones, merci pour l'éclairage.
Sur ton deuxième post, moi je vois plutôt les choses à l'envers :
Les devs consoles sont déjà bien habitués aux API low level. On a aucune stat sur l'usage qui est fait de GNMx vs GNM sur PS4.
Dire que tous les jeux qui tournent mal ou ne volent pas haut niveau perf sur PS4 utilisent GNMx c'est de la spéculation pure. Moi au contraire, je pense qu'il n'y a pas beaucoup de studios (bien pourvus en tout cas) qui resteraient sur GNMx.
Je pense que pas mal de studios ont déjà intégré GNM à leur pipeline, et que c'est justement l'expérience acquise sur console qui permettra à certains studios d'avoir une longueur d'avance pour DX12/Vulkan.
Sur console, grâce à la tradition du "code against the metal" (coder au plus près du hardware) les outils de profiling et de déboguage du GPU sont très avancés par rapport à leurs équivalents sur PC, où les développeurs nagent la plupart du temps dans le noir quant à savoir ce que fait réellement le driver de leur code, sans parler du GPU lui-même.
C'est une nouvelle marque de capote
Mauvaise nouvelle si c'est le cas à moins que DICE exploite les ACEs des GPUs AMD PC ce qui bénéficierait directement aux versions consoles.
Pour le 1080p sur PS4 s'ils y arrivent ce serait une performance sachant que le jeu tourne en 60fps.
Avant le lancement de cette génération, je ne pensais pas qu'on aurait des jeux aussi évolués visuellement dans cette résolution et framerate.
Wait and See.
Mais bien sûr
T'es fou, y aura de gros pixels à l'écran !
Et selon la source, le jeu ressemblera à minecraft
Et bien au moins il sera unique pour le coup ^^
Après pour les multis ça se joue à trop peu de diff pour crier au scandale !
Ils vont pas coder le jeu en ASM juste parce le SDK de base ne leur permet pas d'atteindre 1080p avec les effets qu'ils veulent et un framerate potable.
En gros rien de nouveau à l'horizon
La Xbox One s'exprime pleinement sur ses exclues qui elles sont optimisées a fond......
Maintenant, pour troller un peu
Sony impose dans le cahier des charges le 1080p
Et si le 1080p est un standard sur ps4,pourquoi a chaque foi faire un article pour le préciser?
On voit bien que les jeux ps4 ne sont pas non plus en 1080p 60fps,ce qui veut dire que faire du 1080 est leur limite,donc pas très loin de la one,alors arrêtez de croire qu elle est dix fois plus puissante que la one,et quand on voit en plus qu ils ont même pas été capable de faire d une exclu d un jeu de course reporter mainte et mainte fois du 60 FPS...hum hum!
bah oui ta merde de wiiu chérie est encore plus largué ....
Tain mais ferme ta boîte à caca qui te sert de bouche. Il n'est pas question de WiiU dans cet article alors pourquoi tu ramènes ça sur le tapis ?
La WiiU est en marge des deux autres consoles comme l'a été la Wii en son temps, personne n'essaie de prouver le contraire que je sache.
La PS4 et la XB1 ne sont pas des "sous-PC". Ce n'est pas parce que la plupart des tiers les utilisent comme telles et qu'elles sont équipées de proc x86 et de GPUs GCN qu'elles le sont.
Les deux consoles ont de la mémoire unifiée (même si la One a de l'esram sur un pool séparé) et pas de port PCIE qui ajoute de la latence entre le CPU et le GPU. C'est une différence majeure avec le PC. Ainsi qu'un espace mémoire commun pour qui veut faire du computing "asynchrone" de tâches non liées aux graphismes. Il y a également les volatile bits + des drivers développés par Sony et Microsoft (moins limitants que les drivers AMD PC qui ont toujours été un problème). Ainsi que des APIs plus efficaces quand on se donne la peine de vraiment taper dans le low level programming (comme les studios first party).
Pour preuve, à la dernière GDC, le lead programer de Sunset Overdrive (Xbox One) explique qu'ils ont dû repenser leur façon de programmer le jeu en évitant de faire trop de choses en GPGPU simplement pour éviter de fermer la porte à un futur portage PC
Une preuve de plus que les consoles ne sont pas de simples PC pour ceux qui en doutaient encore. Cela corrobore tout ce que j'ai pu lire sur le sujet et ça sort de la bouche d'un développeur reconnu pour son expertise technique dans l'industrie
La Wii-u n'a absolument rien de différent. C'est une console centrée GPU tout comme la PS4 et la XB1 et équipée de composants dérivés du PC.
Les Nintendo fanboys sont vraiment gonflants avec leur Wii-U "pas pareille que les autres"
Fermez-là à tout jamais sérieux.
Sur PC leur utilisation est compliquée (AMD essaie d'encourager les devs à le faire en ce moment) car quand tu développes sur PC tu dois toujours faire en sorte que ton programme soit compatible avec un maximum de configs du marché. Un autre avantage des consoles qui n'est pas du tout exploité actuellement et encore moins chez les tiers qui font du portage bête et méchant.
Enfin bref continuez votre branlette sur la Wii-U en descendant les deux autres machines comme vous le faites et ensuite vous viendrez vous plaindre que les gens trollent sur les news Nintendo
Non, car c'est du PowerPC, donc une archi RISC, contrairement aux PC et eux deux autres qui sont des CISC. Chacun a ses avantages et ses inconvénients.
Exemple récent : Apple qui est passé de processeur RISC vers des processeurs CISC (soit la nouvelle génération X86 d'Intel) avec des résultats, mmh... mitigés.
Sur le GPGPU : Mouais sur l'avance supposé des consoles en la matière.
C'est tout juste la première génération de consoles qui va vraiment dans ce sens là. En fait, c'est vraiment la mémoire unifiée ainsi que les types de RAMs spécialisés qu'embarquent chacune des consoles qui leur donnent un avantage majeur en terme de GPGPU (dont la performance dépend énormément de la bande passante mémoire), mais même avec ça les API GPGPU sur PC, notamment comme CUDA donnent quand même de très bons résultats, souvent devant (quoique plus tellement de nos jours
Donc non, si les devs que tu cites avaient vraiment voulu faire du GPGPU, il aurait juste fallu implémenter le support d'OpenCL et peut-être se faire chier à implémenter une solution pour CUDA (vu la performance misérable d'OpenCL sur hardware NVIDIA par rapport à AMD... sont même en retard d'une version je crois), et je pense que les perfs sur PC auraient juste été monstrueuses.
Les consoles, actuelles et passées sont une véritable bénédiction pour le futur du gaming sur PC, mais quand on veut faire aussi bien que possible sur l'ensemble des plate-formes, les outils sont à dispositions.
Le dev raconte juste du bullshit parce que ça aurait nécessité plus de boulot d'implémenter le GPGPU sur PC... Ou mieux, de viser directement Vulkan ou DX12 (voire les deux), qui rendront ce genre de choses encore plus accessible sur PC dans un futur proche.
Non, tu dois le faire une fois. Et quand c'est bien fait, ça marche très bien. Les APIs actuelles sont assez abstractives pour ça. C'est une problème réel pour le PC, mais c'est moins compliqué que les devs tentent de nous le faire croire en faisant comme si on était encore dans les années pré-ISA où les programmes devaient presque être réécrits et recompilés d'une machine à l'autre.
Sinon tu confonds compute shaders et Async Compute. Ce qui a dû gêner le lead programmeur d'Insomniac c'est surtout les soucis de latence entre CPU/GPU quand il a voulu faire tourner des tâches "asynchrones" non-graphiques sur le GPU au lieu du CPU. Sur consoles c'est possible grâce à un espace mémoire commun entre CPU/GPU qui permet d'éviter les temps idle lors des échanges de données (et donc la latence). Sur PC, c'est plus compliqué. Il dit que le problème sera atténué (mais pas réglé puisque propre au hardware) grâce à DX12/Vulkan. Du coup il est resté sur du SMID pour le gameplay code et quelques autres trucs pour ne pas rendre le portage sur PC trop compliqué. Cela est une preuve parmi d'autres que les consoles ont des spécificités qui les différencient d'un PC. Cela a toujours été le cas d'ailleurs et la PS4 / XB1 n'échappent pas à cette règle.
T'as combien de jeux qui exploitent intelligemment les cores du Jaguar CPU aujourd'hui ? Les "fiber jobs" ? Seule une poignée de développeurs doivent savoir ce que c'est. Les ACEs ? Même pas en rêve (même chez les studios first party, ce n'est pas encore la norme).
Il y aura du mieux quand il y aura des jeux PC pensés nativement pour DX12/Vulkan ce qui devrait faciliter l'optimisation des portages sur consoles mais en attendant, beaucoup de connards continuent de parler de "consoles au rabais" alors que de toute évidence le problème vient de l'approche technique totalement inadaptée et/ou du faible budget alloué par les éditeurs pour ce type de portages.
De plus une console ça se compare à la génération de consoles précédente et non au monde du PC qui évolue en permanence.
C'est la seule façon d'exploiter réellement le potentiel des nouvelles consoles.
Le CPU (même s'il est sous-exploité actuellement) est et restera le principal bottleneck de la PS4/XB1. Mais il passera au second plan dans les années à venir (sauf pour les studios qui auront un train de retard) et cela fera une grosse différence. Cela fait des années que j'en parle et on y arrive bientôt (même si certains devs ont déjà commencé à le faire un peu).
Petite correction de mon message du dessus : quand il a voulu faire tourner des tâches "asynchrones" non-graphiques sur le GPU au lieu du CPU
Je voulais dire : ''quand il a voulu faire tourner sur le GPU (plus véloce) des tâches non-graphiques qui nécessitent une synchronisation et une très faible latence CPU/GPU''
Ok sur ton premier post, effectivement, je n'avais pas du tout compris la problématique des tâches asynchrones, merci pour l'éclairage.
Sur ton deuxième post, moi je vois plutôt les choses à l'envers :
Les devs consoles sont déjà bien habitués aux API low level. On a aucune stat sur l'usage qui est fait de GNMx vs GNM sur PS4.
Dire que tous les jeux qui tournent mal ou ne volent pas haut niveau perf sur PS4 utilisent GNMx c'est de la spéculation pure. Moi au contraire, je pense qu'il n'y a pas beaucoup de studios (bien pourvus en tout cas) qui resteraient sur GNMx.
Je pense que pas mal de studios ont déjà intégré GNM à leur pipeline, et que c'est justement l'expérience acquise sur console qui permettra à certains studios d'avoir une longueur d'avance pour DX12/Vulkan.
Sur console, grâce à la tradition du "code against the metal" (coder au plus près du hardware) les outils de profiling et de déboguage du GPU sont très avancés par rapport à leurs équivalents sur PC, où les développeurs nagent la plupart du temps dans le noir quant à savoir ce que fait réellement le driver de leur code, sans parler du GPU lui-même.