latimevic > blog
    tags :
    3
    Likes
    Who likes this ?
    gunotak, vengeur, crazyfrag51
    posted the 08/21/2013 at 04:43 PM by latimevic
    comments (43)
    gunotak posted the 08/21/2013 at 04:46 PM
    C'est normal .
    vgs posted the 08/21/2013 at 04:47 PM
    Mais qu'est-ce que c'est que cet article
    Sérieusement, l'article que tu link est un torchon... Désolé mais j'accorde plus de crédit à un haut responsable d'AMD qu'a un blogeur d'IGN.
    fullbuster posted the 08/21/2013 at 04:49 PM
    Le mec avec son pseudo et son avatar qui parle de pigeon ...
    blackbox posted the 08/21/2013 at 04:49 PM
    AMD ne connait pas l'APU de la xbox one
    moi j'accorde plus de crédit à un responsable qui sait de quoi on parle.

    seul MS connait son APU, MS a payé 3 milliards de dollars pour faire son propre APU sur les bases d'un APU AMD.

    AMD ne fait que des suppositions sur ce qu'il peuvent commenter tout simplement.
    guiguif posted the 08/21/2013 at 04:56 PM
    Tfaçon on sait tous que la PS4 est la plus puissante, ça sert a rien de retourner le problème dans tout les sens, ça fait des mois et des mois qu'on le sait
    idd posted the 08/21/2013 at 04:57 PM
    heu alors c'était intéressant jusqu'à ce que le gars additionne les vitesse des mémoire de la X1....
    bbox1 posted the 08/21/2013 at 04:57 PM
    Tu voudrais pas travailler pour Google China ?
    idd posted the 08/21/2013 at 05:00 PM
    bah voilà, même dans les com, personne comprend pourquoi il additionne des stats n'importe comment....


    adriane23
    "192 GB/s (eSRAM) + 68 GB/s (DDR3) = 260 GB/s overall."

    I swear I laughed so hard, I got light headed when I saw this. Did you really think that's how they added up?


    Gosuki

    Of course he thinks that.

    After all, he has a computer science degree and half a decade's experience working as a software engineer... odds are that he knows more about graphics chips and memory bandwidth than any of us. xD


    adriane23

    If he actually paid attention in his career field he would know that putting a plus sign between eSRAM and DDR3 would get him laughed at. Even without my Software Engineering degree, I could figure that out by searching the interwebs.
    latimevic posted the 08/21/2013 at 05:01 PM
    Bbox
    xbhxrebirth posted the 08/21/2013 at 05:01 PM
    exactement! la ps4 est plus puissante mais je ne voit pas de difference entre les deux , car je le sait par experience, avec le temps que les jeux ne sont jamais vraiment different entre les consoles concurrentes. ah oui une textures qui s'affiche avant, une image par seconde de plus ect...et? j'acheterai la One pour les jeux fait par Microsoft ou des boites travaillant pour eux et la PS4, pour leurs exclus egalement...donc dans pas mal de temps
    vgs posted the 08/21/2013 at 05:04 PM
    Non mais l'article est totalement faux, c'est de la désinformation à ce niveau là. Le mec fait des analyse bidon pour tenter de mettre la Xbox One devant
    kalidor posted the 08/21/2013 at 05:07 PM
    Ca devient vraiment n'importe quoi vos articles ...
    vengeur posted the 08/21/2013 at 05:11 PM
    +1 pour le pigeon en Ascii.
    apollokami posted the 08/21/2013 at 05:13 PM
    Il y a quand même beaucoup de conneries dans son article donc pas crédible.

    AMD ne connait pas l'APU de la xbox one

    Heu quand même pas. Même si c'est Microsoft qui l'a entièrement conçu c'est AMD qui a fabriqué ensuite à priori.
    Tandis que pour la PS4 c'est AMD qui a tout fait.
    Donc oui l'APU de la X1 peut être très personnalisé par rapport à celui de la PS4 mais AMD en connait quand même plus ou moins les capacités.

    J'attends quand même de voir ce qu'ils disent pour la conf HotChip, ce sera certainement intéressant.
    ashern posted the 08/21/2013 at 05:23 PM
    Apollo ce que tu dis : oui et non. Regarde les CG avec la même puce tu as des perf très exotique. Je m'y connais pas assez mais bon suffit de regarder le détails précis de chaque CG de même génération pour voir qu'on retrouve le même nom de puce. Donc la même technologie mais suivant la gamme et le hardware coupler à la puce ça change pas mal les perfs.

    Ceci dit je ne m'imagine pas voir une révolution la PS4 est la plus puissante jusqu'à preuve du contraire. Mais la puissance ça fait pas tout et c'est un autre débat.

    Apres je vais me passer de commentaires sur les gens qui disent faut pas additionner l'ESRAM et la DDR3. A bon comment tu sais ? Je dis pas que ce n'est pas une erreur l'addition mais comment tu le sais ? Car je trouve sur le net aucun article qui explique précisément comment marche l'ESRAM. Donc je suis preneur si quelqu'un peut en linké un. Car beaucoup la prennent pour une simple RAM de 32MB à haute vitesse mais ce que j'ai compris c'est que ce n'est pas aussi simple que ça.
    ashern posted the 08/21/2013 at 05:42 PM
    Possible mais j'attend toujours une réponse pour savoir comment marche une ESRAM. Plutôt que dire ça à l'air foireux je veux bien des précisions
    kikibearentongues posted the 08/21/2013 at 05:47 PM
    L'article m'a l'air un peu foireux.
    Je ne suis pas certain que le type sait de quoi il parle, de ce que j'en ai lu.

    Après, il faudra voir dans la pratique ce que les deux machines peuvent faire, évidemment.
    Mais, il s'avance beaucoup, oubli un paquet de facteurs, et mélange un peu tout. En fait, il fait plus de la théorie.

    Ashern

    l'eSRAM est une mémoire cache, donc elle a ses caractéristiques (capacité, vitesse ...) de son côté et la DDR3 a ses caractéristiques d'un autre côté. C'est aussi pareil sur PC, lorsque la GDDR5 de ton GPU a ses 'spec' et la DDR3 pour le CPU a les siennes.

    192Go/s est donc la bande passante de l'eSRAM, et 68Go/s, celle de la DDR3.
    Ca ne s'additionne pas, car ce ne sont pas les même types de mémoires et que de toutes façons on n'additionne jamais des pools de mémoires, qu'elles soient de même famille ou non.
    kikibearentongues posted the 08/21/2013 at 05:49 PM
    *la bande passante des pools de mémoires, qu'elles soient de même famille ou non.
    ashern posted the 08/21/2013 at 05:55 PM
    Moi ce que j'ai compris c'est que l'ESRAM se couple à la DDR3 justement comment ? je sais pas. Mais c'est pas 32Mo qui travaille seul dans son coin mais bien coupler au 8Go DDR3.

    Donc oui la GDDR5 et la DDR3 ne se couple pas sur un PC mais on parle pas de la même chose. Comme je disais je pose une question mais personne répondra sur ce forum je pense car a part des "on dit" personne sait.
    polo35000 posted the 08/21/2013 at 06:07 PM
    Ça se couple pas, c'est pas dur à comprendre.

    T'as une moto qui transporte pas bcp de chose mais roule vite et à côté un camion qui roule pas très vite mais transporte pas mal de choses à la fois. est-ce que le fait de mettre la moto sur le camion ou le camion sur la moto fait rouler l'un ou l'autre plus vite ? Non (outre l'impossibilité technique de ranger un camion sur une moto ^^), tu restes avec une moto qui va vite et un camion lent.
    bbox1 posted the 08/21/2013 at 06:08 PM
    Y'aura t'il quelqu'un qui va faire la réponse de la réponse d'AMD pour démontrer son utilité ?
    polo35000 posted the 08/21/2013 at 06:08 PM
    Ça fonctionne en parallèle ça peut s'échanger des marchandises (=data) mais les deux vitesses ne s'ajoutent pas.
    kikibearentongues posted the 08/21/2013 at 06:11 PM
    C'est pas compliqué, pourtant.
    C'est une mémoire cache rapide.

    Sa rapidité peut servir à stocker des données lourdes (qui ont souvent besoin d'une bande passante importante; La plupart du temps c'est des données liées à la partie graphique) en un temps minimal.
    C'est à ça que sert l'eSRAM, à stocker rapidement des données lourdes.

    Là où la DDR3 est pensée pour avoir une plus grande latence et donc mieux appropriée aux plus petites données (sons, IA, etc.).
    Déjà, premier point : Si l'eSRAM fusionnait avec la DDR3, ça créerait de gros soucis sur la latence côté CPU.

    l'eSRAM pourrait par contre "décharger" des données sur la DDR3, mais avec la bande passante de la DDR3. Après, c'est pas toujours l'idéal.

    Bref, tu a là deux mémoires complètement différentes, et qui ont leur caractéristiques uniques (bande passante, capacité de stockage, etc.).
    kikibearentongues posted the 08/21/2013 at 06:15 PM
    Ah oui, précision omise :

    l'eSRAM stocke bien évidemment avec sa bande passante en son sein, il ne va pas stocker avec sa bande passante des données dans les 8Go de DDR3. À moins d'un 'transit' qui se fera avec la BP de la DDR3.
    polo35000 posted the 08/21/2013 at 06:18 PM
    "En plus de ne pas lire mon post." Wait What ?! Tu te moques de qui là ?!
    o_O

    "Conclusion tu es comme moi tu n'en sais rien." J'y comprend rien donc toi non plus, t'as pas mieux comme raisonnement ?

    On t'as jamais appris que savoir synthétiser une explication (sous la forme d'une métaphore, compréhensible par tous) il faut déjà l'avoir compris soi-même ?
    ashern posted the 08/21/2013 at 06:19 PM
    Ok polo merci d'être passé. J'ai bien précisé que je voulais des vrais explications pas des spéculations ou encore mieux des métaphores. En plus de ne pas lire mon post.

    Je ne t'ai pas dit que ça s'additionnais j'ai bien dit j'aimerai vraiment qu'on m'explique le fonctionnement concret car ce n'est pas de simple ram isolés bossant chacun dans leur coin comme le couple GDDR5 et DDR3 d'un PC.

    Conclusion tu es comme moi tu n'en sais rien.

    Merci Akiyukikibear : Au moins c'est plus efficace qu'une métaphore foireuse. Mais même si je comprend parfaitement la théorie que tu cites ma question est peut être trop technique. Faudrait un expert qui explique concrètement ce lien entre la DDR3 et l'ESRAM quel différence dans le parcours d'un calcul lourd, pour arriver jusqu'aux résultats final et la vitesse réel de ce calcul . Pour comparer à la GDDR5 unifiée. Mais bon je suis pas sur qu'on aura une réponse avant la hotchips.
    odst posted the 08/21/2013 at 06:21 PM
    Ashern : je pense pas que tu sois sur le bon site pour poser ce genre de question
    ashern posted the 08/21/2013 at 06:26 PM
    "En plus de ne pas lire mon post." Wait What ?! Tu te moques de qui là ?!
    o_O

    "Conclusion tu es comme moi tu n'en sais rien." J'y comprend rien donc toi non plus, t'as pas mieux comme raisonnement ?

    On t'as jamais appris que savoir synthétiser une explication (sous la forme d'une métaphore, compréhensible par tous) il faut déjà l'avoir compris soi-même ?


    Bon ok Polo explique moi alors, car tu me ressors le même blabla mais le hardware ne se résume jamais aux chiffres. Sinon mon P4 de l'époque aurait était plus puissant que la plupart des 4 cœurs aujourd'hui.

    Donc je ne troll pas là et c'est vraiment de vrai questions.

    Razoire : Je sais Razoire et il n'y a aucun site pour y répondre j'espere juste que certains ont compris ma démarche. Car prendre pour un con un mec qui lance une explication foireuse (ou pas) sans savoir pourquoi faut pas abusé. Quand on sait pas on se tait et c'est ce que je fais. J'attends la Hotchips que de vrai expert s'expriment. Car contrairement a beaucoup la comm des deux camps ça marche pas. Comme l'histoire du "plus facile a programmer" personne sait pourquoi c'est plus facile concrètement mais tout le monde le crois.
    polo35000 posted the 08/21/2013 at 06:38 PM
    J’espère qu'Akiyukikibear aura le courage de t'expliquer parce-que visiblement les miennes ne sont pas de ton goût.
    Tes coms méprisants ça va bien deux secondes (déjà l'autre fois c'était pas terrible mais là c'est du pur foutage de gueule) je vais pas me crever le cul pour toi quitte à ce que tu sortes que j'esquive la question (dont je suis même pas sûr que tu attendes la réponse... mais si c'est le cas je ne peux que te conseiller de chercher).
    kenpokan posted the 08/21/2013 at 06:57 PM
    Shazbot [Exp : 4549 - Niv : 46] publié le 21/08/2013 à 18:47
    Mais qu'est-ce que c'est que cet article
    Sérieusement, l'article que tu link est un torchon... Désolé mais j'accorde plus de crédit à un haut responsable d'AMD qu'a un blogeur d'IGN.




    Shazbot [Exp : 4334 - Niv : 44] publié le 18/08/2013 à 22:08
    Haha Madness qui remet en cause CBOAT. On aura tout vu sur Gamekyo... le mec est juste intouchable sur GAF tellement il est fiable.
    odst posted the 08/21/2013 at 07:15 PM
    ashern posted the 08/21/2013 at 07:26 PM
    Désolé que tu te sentes vexer polo.
    je te vise pas personnellement mais je rappel que ta première réponse est :
    "ca se couple pas c'est pas dur a comprendre" :

    donc déjà tu me prends pour un con des la première phrase donc sur l'aspect politesse on repassera si tu veux bien. Ensuite je pense avoir été suffisamment courtois en t'expliquant que ton niveau d'informations semble être au même niveau que moi.c'est a dire des explications théorique de vitesse.

    donc razoire a raison sur ce site personne ne peut apporter de réponse a part un mec caler en hardware c'est a dire un ingénieur Hardware. Moi aussi je sais lire les news des mecs qui parle en teraflops pour se rassurer car il ne comprennent rien polo mais je persiste tu as tort de simplifier lhistoire de l' ESRAM. Aussi limiter soit mes connaissances. Personne arrive a dégagé un chiffre concret. C'est qu'il y a une raison non ?

    donc si tu es haineux c'est surement du a mon impolitesse. Mais bien autre chose.
    foxstep posted the 08/21/2013 at 08:01 PM
    ça deviens soûlant à force , les gens ont du mal a accepter les faits "ps4 plus puissante que X1" , c'est une réalité et va falloir vous y faire hein , après au final cela n’empêchera pas que les 2 consoles seront superbe
    foxstep posted the 08/21/2013 at 08:13 PM
    Sinon pour ton lien ign c'est un gros fake , le mec c'est juste un troll Pro M qui veux se rassurer
    kikibearentongues posted the 08/21/2013 at 08:39 PM
    Je vais essayer de faire court et clair.

    Le CPU va à un moment lire un script/algorithme du jeu et le mettre en mémoire pour pouvoir faire son boulot (calculs depuis ces informations, requête pour le GPU ...).
    L'algorithme pour cet exemple-ci donne les coordonnées d'un modèle 3D complexe (je schématise : 'Bla bla bla' Open temple.bidule 'Bla bla bla').
    Il va donc falloir que le CPU aille chercher les données correspondantes dans le CD ou le DD, par exemple.
    Une fois trouver, il met les données en mémoires pour qu'elles puissent être utilisables.
    Par exemple, le modèle d'un temple composé de 8 millions de vertices (les points virtuels pour dessiner les polygones), et sa librairie de textures riches (diffuse, spéculaire, etc.).

    Le problème, c'est que si ces données sont en gros morceaux (lourds), la bande passante de la DDR3 peut ne pas faire l'affaire.
    Si tu essaie de faire entrer des gros chats par une petite trappe, et que du coup chacun attend son tour, ça ralenti les choses.
    C'est pareil ici, avec de trop gros morceaux et une BP insuffisante, il y aura un temps d'attente avant que ces données ne puissent arrivées au complet à bon port et être utilisables.
    Elles pourraient même créer des latences dans le système, et autres soucis (pop-up tardif, par ex.) dans le jeu.

    Du coup, on va plutôt dans ce cas précis, garder le modèle, les buffers ou des effets sur l'eSRAM (moins les modèles, puisque 32Mo sont insuffisants).

    Là où les petites et moyennes données (sons, IA ...) sont tout à fait adaptés à une BP plus faible, donc à la DDR3.

    Il y a donc d'un côté une mémoire principale, et de l'autre un petit cache de 32Mo connecté aux GPU/CPU ; Mais les deux sont à part.
    L'eSRAM va accueillir des données avec sa BP, et la DDR3 de son côté en accueillera avec sa BP, par exemple.
    On ne pourrait pas non plus dire à la DDR3 d'augmenter sa BP selon certaines données ou non, ce n'est pas une mémoire adaptée aux grosses BP.


    Du coup les dev' ont programmer cette "lecture; Mise en mémoire" du temple pour se faire sur l'eSRAM (qui sur Xbox One peut lire et écrire simultanément, en plus).
    C'est l'un des points qui rendent l'eSRAM plus compliquée à gérer que la GDDR5.
    En dehors de certaines textures et des buffers, c'est difficile de s'en servir.

    Et comme cette eSRAM est directement reliée à la fois au CPU et au GPU, cela signifie que cette mémoire cache (les 32Mo d'eSRAM) peut être accéder et utilisée dans les calculs à la fois par le CPU et par le GPU.

    D'où la possibilité, par exemple, de "déplacer" les informations de l'eSRAM vers la DDR3 par certains moyens.
    Les 8Go de DDR3 sont à la fois pour le GPU et le CPU, donc un streaming pourrait se faire pour les données graphiques vers la plus grande capacité de stockage en octets de la DDR3.
    Mais j'imagine bien qu'un tel procédé est compliqué à optimiser, et que les 32Mo d'eSRAM ont vite fait d'être rempli.

    La BP de la DDR3 ne peut pas être additionner avec celle de l'eSRAM, comme un 'boost', donc. La fonction de l'eSRAM reste celle de servir de cache pour certaines données, principalement.

    Pour la GDDR5 de la PS4, c'est différent.
    Il n'y a qu'une seule mémoire, à la fois pour le CPU et le GPU.
    Du coup, le GPU voit ce que le CPU lui demande de faire sans même passer par des appels/échanges entre les deux processeurs.
    Et vis versa, le CPU et le GPU sont un peu en symbiose, de ce côté.
    Ca évite les latences que peuvent amené les échanges entre les deux.

    Comme la BP est élevée sur la GDDR5, la venue d'informations lourdes (meshes 3D, etc.) est facilitée.

    J'ai aussi compris que du côté CPU, la GDDR5 adoptera une BP plus faible.

    Après, la BP de la DDR3 est bonne et il existe des techniques détournés pour ne pas avoir des données trop lourdes pour la BP, dans certains cas (comme faire un low-poly + displacement peu coûteux, au lieu d'un high poly qui pèse lourd).

    Après, si tu veux vraiment tout savoir en détail, peut-être que tu trouvera.

    Edit : correction. Ca devrait être plutôt propre.
    kikibearentongues posted the 08/21/2013 at 08:44 PM
    *trouvera des papiers techniques intéressant sur le net.
    Re re Pardon.
    ashern posted the 08/21/2013 at 08:58 PM
    Merci akiyukikibear d'avoir pris le temps. Je saisi le principe mais je comprend toujours pas pourquoi Microsoft a opté pour cette solution plutôt que la GDDR5. Ils ont du y pensé et je doute que ça change le prix final d'une console la GDDR5 au lieu de la DDR3.

    Le principe est clair depuis le début et tu confirmes un truc que je disais plus haut :

    Et comme cette eSRAM est directement reliée à la fois au CPU et au GPU, cela signifie que cette mémoire cache (les 32Mo d'eSRAM) peut être accéder et utilisée dans les calculs à la fois par le CPU et par le GPU.

    Ce détail m'interpelle sans parler du procédé compliquer a mettre en place. Puis cet histoire de compliqué à programmer je sais pas si on peut dire ça car ça dépendra des SDK et microsft est réputé pour ça donc même si ça sera plus compliqué peut être que sur PS4 je suis sur que ça sera un détail cet ESRAM assez vite.
    kikibearentongues posted the 08/21/2013 at 09:42 PM
    Pour savoir la ou les raisons techniques exactes, c'est une autre pair de manche. Je n'en sais rien.
    La 360 utilisait aussi une mémoire cache, l'eDRAM.

    Il faudrait qu'un de leur ingénieur s'exprime sur le sujet, le pourquoi du comment.

    Pour la facilité de dev' qui dépend des SDK, c'est vrai. Et avec Microsoft, ça se passe généralement bien.
    polo35000 posted the 08/21/2013 at 11:06 PM
    Super boulot Akiyukikibear dsl de t'avoir laissé ça sur les bras comme une grosse merde ^^ :fuissesresponsabilités:

    Quand MS a jeté les grandes lignes de sa console ils l'ont conçu comme une Box, au centre du salon mais pas spécialement comme une console de jeu hyper puissante (et la PS4 ne l'est pas non plus). Ça apparaît clairement dans les leaks. Pour ces fonctions la solution la plus économique et la seule qui à l'époque pouvait offrir assez de Ram (8go) à toutes ces fonctions (très orienté multi-tâche avec appli, tv, jeu en même temps) c'était la DDR3 car la GDDR5 ne pouvait monter jusqu'à 4go à l'époque en plus de coûter un bras. Sony a eu de la chance que le développement de chips de plus large capacité ait abouti à temps. Il n'ont pas parié sur le même cheval. Pour autant MS savait que la DDR3 ne serait pas suffisante pour le jeu (alors qu'elle serait à l'aise dans tous ce qui est appli etc), d'où depuis le début le choix d'y adjoindre un pool d'eSram plus gros et moins cher (mais un peu moins rapide) que l'eDram pour compenser un peu cet écart. Ni MS ni Sony n'ont à l'époque prévu qu'il y aurait 8go de GGR5 dans la PS4 donc le choix de MS de mettre 8go de DDR3 se tenait parfaitement.
    Aussi la DDR3 chauffe et consomme moins, c'était encore un autre élément qui a sûrement pesé dans la balance pour une console censée tournée H24. Une fois ce choix architectural fais et validé c'était sûrement impossible de toucher au contrôleur mémoire de la machine pour lui faire bouffer de la GGDR5 (la légende dit qu'à 3ans de la sortie d'une console les specs sont bien fixées alors à moins d'un an de la sortie c'est même pas la peine de penser à modifier le silicone sur un élément aussi important en plus d'avoir à retracer toute la CM // Suffit de voir quand la longueur du cycle pour que Intel sorte un proco entre le moment où il est gravé pour la première fois et celui où il est dépourvu de défauts, ça prend des années), ils sont resté coincé par leur choix technique initial (et peut-être aussi trop confiant dans leur volonté de proposer une Box à tout faire).
    polo35000 posted the 08/21/2013 at 11:14 PM
    La facilité de devs, c'est jute que les outils Sony sont plus mûrs donc plus stable et performants et/ou complets, pour l'instant.
    Les ingé software de MS doivent s'arracher les cheveux pour faire tourner 3 OS en même temps mais ça viendra comme le reste, c'est qu'une question de temps avant qu'ils se mettent à niveau (c'est bien qu'ils aient alloué aux devs le droit de coder à bas niveau déjà).
    kikibearentongues posted the 08/21/2013 at 11:44 PM
    Polo
    Pas grave. Il manque des détails pour être plus clair, encore. Mais bon.

    Pour ton explication, c'est plausible, en effet.
    polo35000 posted the 08/21/2013 at 11:57 PM
    Tkt pour les détails c'est bien mieux que ce que j'aurais pu faire (pour continuer dans mes analogies : on ne se soucie pas du rôle de chaque vis quand on cherche à comprendre le fonctionnement d'une bagnole ou pour n'importe quelle autre machine/composant/processus etc) donc félicitations pour ton effort et le temps que t'as du y consacrer J'ai favorisé la page pour garder ton post
    kikibearentongues posted the 08/22/2013 at 01:18 AM
    C'est gentil.