Comme vous le savez, Microsoft s'est fait piraté certains de ses outils de développement. Les hackers ont mis en ligne des informations concernant les améliorations apportées par Microsoft. On y apprend que les développeurs ont maintenant la possibilité d'utiliser 7 des 8 cores du CPU de la Xbox One.
L'usage du 7ème core varie de 50 à 80% selon les besoins du système. Néanmoins, pour avoir accès au 7ème core, les développeurs devront obligatoirement désactiver certaines fonctions multimédias de la console.
Pour rappel, seulement 6 des 8 cores du CPU de la PS4 sont utilisables par les développeurs pour le moment.

tags :
posted the 01/01/2015 at 04:50 PM by
zaclorde
Le plus important dans les jeux c'est le CPU ou le GPU ?
Brrrrrrr
K K K
Le GPU est + important. Par contre, ça + la vitesse d'horloge 10% plus rapide sur One, ça commence à faire un avantage non négligeable côté CPU.
Sur un multi standard, la One risque d'avoir des jeux en 900p, mais avec un framerate plus stable.
Voilà ce que j'appel de vrais améliorations
Si seulement ils pouvaient désactiver la totalité des fonctions inutile pour lancer un jeu...(ps4/one)
victornewman
Juste les consoles de salon, vous pouvez citer le PC pour les contrer
CAD, s'accaparer vite l'info pour la traiter indirectement à son avantage
https://www.youtube.com/watch?v=sWtEUAPJU2k
Quand c'est Techland qui en parle, tu passes ta journée à nier l'importance et l'interêt de ces améliorations pour le développement de jeux sur One.
Par contre, quand Neogaf reprend les dires de hackers sur le même sujet, tu fais un article dessus ?
C'est quoi ton projet exactement ?
Il y a clairement du lourd et de l'embauché future d'office dans les grands groupes de presse
Et quand l'info ne va pas dans le sens qui t'intéresse, t'es jamais le dernier pour essayer de la minimiser ou ridiculiser avec ta dérision maladroite et forcée.
+1000 je comprend vraiment pas c'est quoi son problème.
Enfin bon, pour une fois qu'il essaye pas de dégommer la Xbox One c'est deja ça.
t'es jamais le dernier pour essayer de la minimiser ou ridiculiser avec ta dérision maladroite et forcée.
Bah en faite je prend exemple sur toi et l'Escouade Anti-Playstation, c'est très instructif en la matière merci de me le rappeler
Tu ferais bien mieux de te soucier plutôt de la secte anti-MS très présente et active sur ce site que d'une escouade qui n'existe que dans tes fantaisies de fanboy.
Au fait, ce sera quoi ton prochain fake pour essayer de casser du jeu One ?
Techland parlait de l'ESRAM... je suis rationnel, c'est tout.
Là, MS rend un core disponible pour les jeux = 6+1 = 7
C'est une vrai amélioration, même si le core n'est pas entièrement disponible. Rien à voir avec DX12 où MS essaye de te faire croire qu'avec 6+0 tu obtiens 8.
nobleswan
Mon problème, c'est que je ne suis pas binaire...
zaclorde ça change pas grand chose en fait et techniquement Sony peut toujours libérer au moins un core complet (son OS est moins exigeant) à l'avenir s'ils en ressentent le besoin et si les devs le réclament (notamment ceux qui ne sont pas pressés de faire du GPU computing).
Préviens-moi à l'avance pour que je puisse le mettre en favoris, j'ai bêtement oublié de le faire la dernière fois...
zaclorde
C'est faux, Techland disait être très satisfait des nouveaux sdk One en général (ce qui inclus la possibilité d'utiliser ce 7ème core), pas seulement de l'esram.
"Oh my god le retour de la puce caché la libération des cores
Mais, t'as bien raison, pourquoi croire les dires des gars de MS qui s'occupent du sujet où ceux de développeurs One qui travaillent dessus en ce moment et ont put tester les améliorations apportés par ces nouveaux sdks.
Surtout quand on a des ingénieurs sur Gamekyo qui passent leur temps à nier et minimiser tous ces efforts faits par MS pour améliorer la machine et ses outils de développement constament.
Comment tu savais ça avant tout le monde toi au fait, sachant que cette info n'est connue que depuis le leak ?
Bref, tout comme Blackbox, je pensais que c'était impossible pour des raisons thermiques. J'espère que Sony pourra faire de même, ce serait bête de laisser cet avantage à MS.
Je pense quand même que la question thermique se pose sur PS4, la console étant beaucoup plus petite.
Je m'en soucie n'est crainte, je verse une larme de pitié pour eux chaque soir avant d'aller me coucher
samgob
J'attend que l'EAP vienne encore pourrir les sujets sur la PS4, je déciderais en fonction au moment venu
haloman C'est la nouvelle année, je la célèbre à la façon
samgob
Je l'ai fait mais le topic a été supprimé il me semble
Je vais finir par monter une ligue de défense contre les topics à fight injustement supprimé, ça fou le bordel dans mes favoris
C'est faux, Techland disait être très satisfait des nouveaux sdk One en général (ce qui inclus la possibilité d'utiliser ce 7ème core), pas seulement de l'esram.
Je ne suis pas devin pour savoir qu'ils parlent du 7ème core si ils ne le mentionnent pas...
Sinon, je ne minimise pas l'intérêt des autres améliorations. C'est simplement vous qui voyez des monts et merveilles. Même Spencer a dû vous remettre en place sur DX12...
Sur ce plan il n'y a pas la moindre crainte à avoir, le refroidissement est calculé puce à son maximum (voir au claquage comme un transistor).
Ils n'auraient jamais fabriqué une puce qu'ils ne peuvent pas utiliser à son potentiel maximal, ne serait-ce que pour une question de coût dans un premier temps.
Et, pour le coup, ça doit bien t'arranger qu'ils aient supprimé l'article avec ton fake ridicule...
Tiens, tu vois, fallait pas t'en faire car, finalement, tes potes sont bien là et n'ont pas mis beaucoup de temps pour ramener ta chère PS4 dans ce sujet sur la One.
C'est déjà prévu. Pour le moment ils cherchent à pousser les devs à exploiter les compute units du GPU plutôt que de compter sur le CPU mais si le besoin se faire ressentir ils le feront.
Je pense quand même que la question thermique se pose sur PS4, la console étant beaucoup plus petite.
Non aucun problème. L'architecture a été prévue pour supporter un CPU de 8 cores actifs (dont un peut-être sur off pour les yields mais j'en suis même pas sûr à 100% en fait, je crois que tous sont utilisables techniquement).
Et, pour le coup, ça doit bien t'arranger qu'ils aient supprimé l'article avec ton fake ridicule...
Ca ne m'arrange pas ouais, il y avait toutes les petites belettes qui pleuraient pour une pauvre image (qu'ils ont d'ailleurs bien cru au départ
Tiens, tu vois, fallait pas t'en faire car, finalement, tes potes sont bien là et n'ont pas mis beaucoup de temps pour ramener ta chère PS4 dans ce sujet sur la One.
T'es grave, pour une fois qu'ils font un article sur la One et qui est positif et tu viens t'en plaindre ?
MS n'a pas promis monts et merveilles, seulement qu'ils allaient travailler dur pour améliorer les choses.
Et c'est ce qu'ils font.
Les believes c'est ailleurs que ça se passe, comme tu dois bien le savoir...
Je ne me plains pas, je m'étonne juste de l'enthousiasme de l'auteur sur ce sujet alors qu'il se montrait extrêmement critique sur un sujet similaire il y a peu.
Mais je constate finalement que tout ça n'était qu'une bonne excuse pour remettre sa machine préférée et celle de l'ingénieur de Gamekyo sur le tapis.
Tout rentre dans l'ordre.
En faite tu sur-dimensionne toujours un peu le refroidissement pour ces composants même après les calcules en °/cm2 à vrai dire il n'y a qu'avec la PS3 et la 360 que ça m'échappe avec tous les problèmes thermique qu'on rencontré ces machines, même si la graisse thermique a été fortement identifier comme étant responsable de ce carnage, du moins pour la PS3.
Tiens pas grand chose à voir, ça me fait penser que ma nouvelle carte mère est renforcé par du métal dessous et dessus, la raison invoqué par Asus, c'est que lorsqu'on overclocke, la température peu déformer la carte mère (c'est vrai) et pourrait faire sauter les BGA dans certaines conditions.
On a noté ce problème avec la carte mère de la 360 mais aussi la PS3 mais dans une moindre mesure, mais bon on est en est pas la avec la PS4.
Le CELL explosait le CPU de la 360. On est pas du tout dans le même cas de figure.
Allons allons, tu vilipendes un peu la non ?
Les haters qui suintent et ne savent plus quoi inventer pour troller la One.
La One s'auto-trolle inutile de s'en prendre à elle
Je me propose même de l'aider prochainement contre la horde infâme de pro-S
Comme le dis karbon MS et la One s'auto trolt tout seul, il m'arrive même d'éviter certains de leurs news tellement que j'ai limite de la peine et de la pitié.
Jette un oeil aux 15 derniers posts de toi-même et de tes potes pro-s et ose me dire que ce n'est pas le cas.
Si avec ça tu ne te rends pas compte de ta fermeture d'esprit, c'est juste incroyable...
kayama: D'accord je ne savais pas
Les 8 cores sont bien actifs. La vrai question est de savoir si il est possible d'en faire tourner 7 à plein régime en même temps.
Je me demande si cette mise à jour était déjà disponible pour Unity ?
salvator
L'avantage était marginale. +10% sur la vitesse d'horloge.
Aucun problème tu verras
La PS4 chauffe moins que la PS3, de plus la gravure de la puce a été amélioré AMD ont fait du bon boulot, si la machine rend l'âme ce ne sera pas à cause de la chaleur
Bah non ce n'est pas le cas, il n'y a que toi qui voit le mal partout
On annonce que la One fait clairement un bon avant avec son core supplémentaire activé "que Sony ne l'a pas fait pour la PS4" résultat et à ce jours, niveau CPU : One > PS4
Il n'y a rien à ajouter.
Mais les cpu jaguar sont juste dignes d'atom pour les netbook, sont tres faiblards...gagner des perfs sur chaque cycle cpu est tres important pour eviter de brider le gpu...
Malgré tout il n'y aura pas de miracles vu les perfs limitées des cpu de la one et de la ps4...
Non, ce sont juste les fanboys comme toi qui ne voient que ce qu'ils veulent bien voir et qui se précipitent sur la moindre news positive sur la One pour essayer d'en faire une news négative.
karbon
Allons, stp, pas à moi avec ça.
T'as donc pas vu venir la manoeuvre de tes amis ingénieurs pour remettre la PS4 sur le tapis, histoire de rassurrer ceux de leur clan en essayant de minimiser l'importance et l'interêt de ces dernières améliorations de la One et de ses nouveaux SDKs ?
T'es aussi naïf ou aveugle que ça ?
Avec Samgob qui critique ses propres faits h24 depuis + de 6 ans c'est hilarant, la team gros manches du site est dans la place et attend leurs copines pour faire 100 commentaires
Je pense que sur cette gen on aura jamais vu autant de mise ajour de sdk pour la one...
T'as raison, qu'ils ne fassent rien, ce serait beaucoup mieux, tiens...
Sacré Samgob
Je te mets aussi sur la liste des associations que je compte monter pour défendre l'honneur et la justice sur ce site, car je trouve inacceptable que tu sois régulièrement banni de façon totalement injuste en plus
microsoft peut ce le permettre avec leurs magnétoscope
Sauf que je n'ai jamais affirmé que c'est awesome mais que ça va dans le bon sens et que c'est un plus non négligeable, comme le soulignent aussi régulièrement ceux qui travaillent sur One.
Ce sont les fanboys comme toi qui essayent de mettre des propos quils n'ont pas tenu dans la bouche des autres pour les ridiculiser qui sont les plus ridicules et pathétiques.
sinon evite de me mettre dans la case fanboy sans cervelle, surtout venant de toi... j'ai remarqué que t'aime dénoncé les gens de c'que tu es vraiment, c'est rare comme pathologie on va l'appeler la maladie "samgob"
j'te rassure t'es pas le seul qui souffre de ça mais t'excelle dans cette maladie-jeu t'entends ?
La réponse à ta question est sur cette page.
dans la colonne kinect:
yes = kinect obligatoire
no = kinect facultatif (features ou gameplay alternatif)
tba = en attente de confirmation (to be annonce)
D'abord ça dépendra de l'optimisation des jeux, ensuite seuls certains comme Assassin's Creed Unity qui pèsent énormément sur le CPU pour gérer l'AI pourront espérer tourner un peu mieux.
Et encore, on parle de CPU AMD ici. Ils sont notoirement connu pour avoir un nombre d'IPC pas très élevé par rapport à la concurrence. Cette mesure désigne grosso-modo la puissance d'un cœur sur un proc.
AMD a préféré miser sur la puissance d'horloge brute et le nombre de cœurs de ses processeurs mais cette stratégie a vite montré ses limites lorsque qu'Intel a sorti ses Nehalem, qu'AMD ne pouvait toujours pas égaler même avec ses Bulldozer, très énergivores et impressionnants dans les chiffres mais brillants par leur inefficacité.
On pourrait arguer que bien paralléliser l'application pourrait gommer ce défaut mais tout est loin d'être parallélisable en informatique...
Même si ce sera indéniablement un avantage pour l'avenir, je vois mal comment 1 ou 2 cœurs en plus sur un processeur AMD tel qu'on les connaît pourrait changer grand chose à la situation.
Aux fans et possesseurs d'XBONE : n'espérez pas trop, ça n'apportera sans doute rien de significatif en terme d'expérience visuelle et de performances pour la plupart des jeux, sinon peut-être des temps de chargement plus rapides, ce qui est déjà bon à prendre.
Mais la différence de paramètres et de résolution entre jeux PS4 et XBONE ne vient pas d'un cœur en plus ou en moins à exploiter.
Et dis-toi qu'il a 42 ans ce garçon
S'en prendre à l'âge des autres c'est vôtre dernier recours pathétique quand vous ne savez plus trop quoi dire ?
Merci... Et bonne année 2015, rien ne change !
Oui stp nous sommes dans l'ombre, guide nous vers la lumière
Sérieux moi il me fait marré ce mec avec toutes sa science.
Tu te contredis quand tu dis justement que les cpu amd a cause d'un manque d'utilisation dans le monde du pc des nombreux coeurs disponibles alors que sur console ils en profitent un max grace a des api speciales...
Donc non pas du tout d'accord avec toi, car a force de mise a jour depuis son lancement,suppression de la reserve kinect,amelioration et optimisation de l'utilisation de l'esram, amelioration du cpu et a venir directx12 qui ameliore l'utilisation des cpu (surtout ceux qui sont faiblards) , si tu additionnes le tout , au contraire il y a une grande difference...
[Soit un CPU 4 coeurs, et un programme qui scale à raison 1 thread par cœur] Si une ressource ne peut être consultée que par un thread à la fois, et ben tes 3 autres threads ils font la queue, et pendant ce temps, il ne se passe rien...
Tu as beau les avoir lancés tous les 4 en même temps en pensant aller plus vite, la chaîne d'exécution est stoppée le temps que la ressource se libère. De plus, les choses sont encore plus lentes si le coeur sur lequel tourne le thread a un nombre d'IPC loin d'être top.
Et puis, il y a aussi le cas ou tes 3 threads attendent le résultat d'une opération effectuée par le 4ème.
Tout dépend du code qui s'exécute.
La parallélisation déjà permise par les API consoles ne fera pas gagner en qualité visuelle ni les titres existants, ni les titres futurs. De plus, aucune API au monde ne peut faire de miracle si le moteur du jeux lui-même n'a pas été conçu pour scaler sur plusieurs cœurs.
Si le code n'a pas été conçu pour être parallélisable, l'API ne le rendra pas "automagiquement" parallèle.
Au final, même en assumant qu'un jeu ait un moteur particulièrement performant et optimisé -comprendre ici : "dont ont a rendu parallélisable toutes les opérations qui pouvaient l'être" -, compte tenu des ressources théoriquement nécessaires pour faire franchir le pas à la XBONE sur ce plan [visuel donc], un cœur en plus n'est simplement pas suffisant, et pas forcément pertinent selon la nature du problème. Or pour moi, ce dernier relève avant tout du GPU et en plus pour la XBONE du type de RAM embarquée et particulièrement de sa quantité.
> Par contre, tu parles d'optimiser l'utilisation de l'ESRAM = là je te suis.
> Tu parles de soulager le système de Kinect = là encore, l'amélioration peut-être significative, mais elle est déjà effective : à moins qu'un jeu ne spécifie explicitement à l'OS que Kinect va être utilisé, les ressources sont déjà disponibles. Donc rien de neuf ici.
> Tu me parles de DirectX 12 = j'attends de voir. Pour l'instant c'est du vent. Comme AMD et ses Buldozzer censés concurrencer Nehalem/Sandy à l'époque.
Mais concernant ce petit coeur solitaire sur un proco AMD, je ne vois pas de contre-argument valable de ta part sur mon raisonnement : le gain est quantifiable mais minime, et ne se verra pas à l'écran, du moins pas en terme de qualité visuelle.
Quand une console a du mal avec certains effets visuels c'est du côté des shaders (occlusion ambiante, tesselation, Godrays, Bloom...) qu'il faut regarder. Et ces derniers sont compilés et appliqués par le GPU. Idem pour la résolution : il existe des cas où le CPU par ses lenteurs retient en arrière le GPU, mais vu les specs GPU de ces consoles, il n'y a pratiquement aucune chance que ce soit le cas. Elles embarqueraient des R280X on pourrait y réfléchir mais là non...
L'argument du CPU de la XONE qui retient son GPU, c'est juste pas tenable.
La console n'a pas encore été exploitée à son maximum, je veux bien le croire, mais il ne faut pas rêver : je fais le pari que l'objectif de la majorité des devs pour cette console restera : 900p @ 30 fps.
Le cpu est le cerveau du pc ou de la console c'est lui qui donne les ordres...le probleme ici avec nos cpu de consoles faiblardes, c'est qu'ils sont lents et peu rapides....donc forcement ils limitent le gpu d'une facon ou d'une autre, se que les developpeurs ont deja dit...un simple i3 est superieure sauf qu'il a 2 coeurs et l'avantage d'avoir 8 coeurs est de justement parralléliaient a souhait pour une utilisation precise...
Mais concernant ce petit coeur solitaire sur un proco AMD, je ne vois pas de contre-argument valable de ta part sur mon raisonnement : le gain est quantifiable mais minime, et ne se verra pas à l'écran, du moins pas en terme de qualité visuelle
Sur ps4 et xone, tu as 6 coeurs pour le jeu et 2 pour l'os, donc si tu liberes un core pour le jeu, tu disposes d'environ 12 % de perfs disponibles en plus pour les jeux...que ce soit minime ou pas, dans notre cas pour la ps4 et xone c'est beaucoup...
De plus pas trop le temps de rechercher tu devrais regarder sur quoi directx12 va ameliorer l'efficacité par cycle des cpus...pour un intel pas une difference enorme car superperforment et hautement cadencées...mais pour un cpu assez faiblard les gains (comme avec mantle) sont carrement considerables...
Donc se que j'essaye de dire c'est que en un an tu as eu 3 evolutions du sdk qui ajouttées font faire un grand bon en avant a la xone...
Pour directx12 sa ne sera pas du vent,cela ne la jamais etait avec chaque iteration...cela fait meme 4 ans qu'il est en developpement conjoint avec intel,amd ,nvidia et qualcomm, tu comprendras qu'il est difficile de trouver mieux comme partenaires competents...
Mais comme tu dis nous verrons car il est annoncé pour 2015, et que la xone utilise deja certaines de ces avantages...
L'argument du CPU de la XONE qui retient son GPU, c'est juste pas tenable.
Pour la definition non mais pour le framerate completement, pour l'ia, pour la jouabilité, pour le son ect ect, si le cpu rame tout ralentit, pouvant meme aller jusqu'au plantage....la definition n'est qu'un element des graphismes, trop souvent on met definition egal beauté alors que tant d'autres parametres rentrent en jeu...
[Soit un CPU 4 coeurs, et un programme qui scale à raison 1 thread par cœur] Si une ressource ne peut être consultée que par un thread à la fois, et ben tes 3 autres threads ils font la queue, et pendant ce temps, il ne se passe rien...
[i]Tu as beau les avoir lancés tous les 4 en même temps en pensant aller plus vite, la chaîne d'exécution est stoppée le temps que la ressource se libère. De plus, les choses sont encore plus lentes si le coeur sur lequel tourne le thread a un nombre d'IPC loin d'être top.
Et puis, il y a aussi le cas ou tes 3 threads attendent le résultat d'une opération effectuée par le 4ème.
[/i]
Voir ma reponse sur directx12 qui ameliorera considerablement la charge par cycle ...http://translate.googleusercontent.com/translate_c?depth=1&hl=fr&rurl=translate.google.com&sl=auto&tl=fr&u=http://www.anandtech.com/show/8544/microsoft-details-direct3d-113-12-new-features&usg=ALkJrhgzMm4G9XXC4KE3kc7HsA1mXCbL8w
Content d'avoir pu dialoguer avec toi a plus...
Samgob contre un autiste qui se refuge d'accepter ses 4 vérités depuis plus de 6 ans ban après ban y'a rien à faire et encore moins espérer un changement à cet âge-là
Je ne doute pas qu'il y ait un gain de performances. Seulement pour moi, compte tenu de la nature du problème ici (parallélisation), une quantification de l'ordre de celle que tu avances (+12% de perfs en général pour les jeux qui se traduit par un framerate plus élevé ou un frametime plus stable) est impossible à assurer.
Je comprends ta logique : une augmentation de 1 vers 1.5 est plus significative qu'une augmentation de 15 vers 15.5, et c'est vrai. Vu qu'in est pas sur des puces très puissantes (relativement parlant), la moindre goutte de puissance en plus peu être décisive...
Cependant, trop de facteurs entre en jeu ici. Si un jeu est CPU-bound, tant mieux, là oui, on verra une amélioration sur le framerate. Ce serait le cas de jeux comme AC : U. Par contre, si ce qui pose problème c'est le GPU qui n'arrive pas à gérer les shaders ou à streamer les textures assez vite (ce qui ne devrait pas arriver vu l'archi des consoles), bah le CPU n'y peut pas grand chose... Même la physique est calculée sur GPU de nos jours...
Je te rejoins sur toutefois sur le reste : Plus de CPU c'est bon pour l'IA. C'est bon pour tout ce qui est interactions réseau et co. Pour le son, pas besoin : depuis les 8bits on sait embarquer des puces DSP qui s'occupent exclusivement du son, ça a rarement été problème sur console en matière de perfs.
Pour DX12, moi je continue à affirmer qu'on verra bien. Si effectivement ils font ce qu'il disent, alors le gain pourrait être significatif en effet.
Et merci également pour la discussion, c'était très rafraichissant !