C'est ce que révèle un développeur anonyme inscrit sur le célèbre site
beyond3D.com avouant par ailleurs que jusqu'à très récemment encore les développeurs disposait seulement des devkits ayant au maximum 1.5Go de RAM pour les graphismes.
Originally Posted by Averagejoe View Post
I was wondering in which devkit this games was particularly demo,did we have any confirmation that 4GB devkit actually hit developers.?
Because i think this game could have been running on the 2.2GB of ram devkit.
La réponse du développeur en question:
Less than that.Most kits until pretty recently had only 1.5 GB usable for graphics
De quoi laisser une marge de progression plutôt énorme (bien que les 8Go annoncé ne seront pas tous dédiés aux jeux évidemment).

tags :
publié le 26/02/2013 à 21:27 par
waax
Et là ils ont reçu le dernier kit PS4 avec les 8go, y a eu 3 morts dans le studio
De plus, je dout fort qu'il n'y avait que 1.5 giga d'utiliser durant la vidéo de kilzonne, mais bon... on verra ine
Cyr
Un Go de DDR3 à débit assez faible. Ca n'a rien à voir avec de la GDDR5 unifiée.
D'autant plus qu'apparement, Nintendo serait entrain de corriger l'OS, pour alléger la RAM allouée et la faire migrée vers les jeux.
Les capacités en calcul ne vont pas évoluées, elles.
(Par contre Nintendo. ...
Bon après si c'est vrai tant mieux pour eux, mais bon ^^
Quand tu sais que les plus gros jeux PC demandent rarement plus de 512Mo de mémoire vidéo. Là, c'est très très bon.
Et avec autant de RAM, les IA ont la possibilité d'évoluer drastiquement, avec déjà des concepts intéressants vu sur les moteurs de prochaine génération (Luminous et son IA qui s'adapte, analyse, appréhende, se souvient, etc.).
Je suis content du choix de Sony.
car si c'est le cas, la marge d'erreur est juste hallucinante pour une console et avec de l'optimisation, il va y avoir un gouffre avec le temps
Ouais enfin là en l’occurrence l'info n'est pas affichée à la vue de tous, elle est sur un forum de connaisseur. Ca change tout.
Pas d'informations niveau GPU/CPU.
Néanmoins, la mémoire était basée sur une architecture PC classique, et donc pas "unifiée". J'avoue que j'étais perdu lorsque l'on m'a parler de GDDR5 dans ce type de configuration. C'est pas très courant. Et ça a d'énormes avantages pour la communication CPU/GPU entre autres.
D'après une interview de Kojima, ce qui fait la nouveauté de ce MGS c'est surtout les différentes approches possibles lors des missions un peu à la manière d'un open world.
Après peut être que l'IA a été bossée à fond aussi.
alors imaginé avec la plus grosse différence de mémoire en plus sur ps4 et peut être un gpu et cpu plus performant et la différence sera énorme, surtout que c'est un jeu de lancement.
Share ça utilisera que dalle comme ressources de RAM, et il me semble a voir lu que l'OS était géré par un CPU à part. (à confirmer) donc..
Si vous avez lu l'analyse de Digital Foundry. Le jeu propose une qualité d'image jusque là exclusive aux PC, avec une résolution de 1080p native et un 30fps figé de bout en bout.
On verra certainement de très beaux jeux en 1080p/60fps avec le temps. Voir une résolution supérieure/30fps. Ce sera le choix des dev'.
Pour un jeu de lancement je trouve qu'il envoie directe la paté bien dans les dents, moi j'en veux pour preuve l'intégralité du web qui pensais assister à une démo technique, pire une CG pour killzone 4 et surement pas un jeu 3d temps réel.
Quand j'ai vu le gameplay je me suis dit "cette fois sony à décidé de sortir le grand jeu et de ne pas nous prendre pour des cons"
Le reste des jeux présenté à achevé de me convaincre (deep down, knack, infamous)
De plus, on a effectivement lu qu'un coeur proco serait attribué uniquement à ces fonctions (mais ca reste de la rumeur), mais un un cpu ne remplace pas la ram nécessaire à ces opérations de compression vidéo et de partage temps réel. Du streaming quoi, même de mauvaise qualité c'est vachement gourmand en ram.
Avec ce qu'on a vu de la PS4 c'est sur que ce titre est taillé pour la prochaine génération
J'ai hâte de voir la version finale de ce Killzone, ça va surement beaucoup évoluer (ça me rappel Uncharted qui évoluait énormément d'une présentation à une autre) encore même si en l'état actuel, l'aspect graphique me convient totalement
Quand on atteint un certain degré, une limite graphique haute sur une génération, on voit nombre de ces jeux fonctionner sur PC en 60FPS car il y a moins de limitations techniques dues à l'avance quasi permanente du materiel PC sur les consoles.
Mais produire un jeu en 60 FPS aussi sur console signifie niveller vers le bas le reste de la production graphique. Cela étant, ca a le droit d'être déjà plus joli qu'aujourd'hui sur next-gen et être à 60FPS ca me suffirait largement, tant pis si la console ne crache pas tout ce qu'elle pourrait cracher !
Oh j'avais raté le fait que la PS4 avit 8go de RAM! Toujours en DDR5 comme le disaient les rumeurs?
Pas DDR5 mais GDDR5, ce qui fait une grosse différence
La machine cracherait autant de calcul, mais pas pour les même raisons.
En soit, on peut s'attendre à des productions de studios modestes optées pour le 60fps.
Guerilla restera sur du 30fps, certainement, et continuera à pousser le détail au maximum par frame.
Ce que l'on constate sur ce KZ SF, c'est que dans les même conditions et niveau de détail, Guerilla aurait pu augmenter le framerate.
Je ne crois pas, il y a de la DDR4, GDDR4 et de la GDDR5 mais pas de DDR5 aux dernières news
Le troll du moment est décernée à akyuki qui se permet de balancer des grosses conneries comme : les plus gros jeux pc utilisent 512 mo de mémoire vidéo... En plus il melange et ne différencie apparement ni la mémoire vive de la ram ou ni la mémoire gpu...
Ou encore grace au surplus de ram ils vont générer une ia crédible... T'es serieux quand tu raconte des conneries comme ça ?
Tu sais à quoi sert la ram ? Apparement non...
Purée entre les troll Nintendo et Sony ya du level...
pour les cartes mères on est même pas encore à la DDR4 (même si arrive bientôt)
A ton avis, à quoi sert la mémoire vive pour l'IA ?
Plus de mémoire ne va pas leur permettre de se souvenir des vecteurs de positions de tel ou tel élément à tel emplacement, à tel moment ? :/
Autre choses, j'ai bien dit "les plus gros jeux PC demandent rarement plus de 512Mo de mémoire vidéo", parce que là on parle de VRAM, pas de mémoire vive. Je te fait un cours, ou sur la VRAM ?
Une PS4 atteint pas les 2 téraflops tandis qu'une Titan à elle seule est déjà a 4.5 téraflops. Pendant la conférence le mec a bien dit que la PS4 approchait les 2 Tfps
Sur PC, la GDDR5 n'améliore pas l'IA.
Sur PS4 elle est unifiée, en liaison directe avec le CPU et le GPU. Sur PC, on voit rarement ce type de configuration.
Apres pour info sur peux saturer sans trop de soucis ta mémoire vidéo sur pc avec skyrim moddé qui arrive à 2go...
Cest les portages fait à l'arrache comme dead space 3 sur pc utilisent à peine 500mo de la mémoire vidéo de la cg.
Je ne suis pas un pro, ce n'est pas mon métier non plus, et Sony ne sont pas des tanches. Mais je doute beaucoup de cela.
"-Sur PC, on voit rarement ce type de configuration" n'a malheureusement jamais fais de miracles. Surtout que l'architecture globale de la console s'approche le plus possible du PC pour du portage rapide et moins couteux.
Ca signifierais que la console serait, sinon, encore sous utilisée comme l'était la PS3. Et je doute que Sony retombe dans ce piège.
Non, c'est carrément plus efficace que la configuration séparée que l'on trouve habituellement sur PC. Ca évite les appels entre CPU et GPU, par exemple, puisqu'ils accèdent tout d'eux aux informations de l'un et de l'autre via la GDDR5 unifiée.
Je parlais des jeux originaux, pas des mods.
-Les portages seront de moindre qualité car les ressources utilisées de toute autre manière que le PC, ce qui ne tend pas vers les dires actuels des dvpeurs dont le témoignage d'aujourd'hui côté Ubisoft.
-Sans RAM dédiée à l'un ou à l'autre, finalement ca fait moins de ram qu'on ne pourrait le croire. Plutôt que d'avoir 8Go de GDDR5 dédiée à la vidéo avec des possibles appels du CPU et de la ram pour ce dernier. On aura 8Go de GDDR5 partagées entre les deux processeurs.
Sur ce, bonne nuit à tous!
En fait ty connais strictement rien cest navrant !
Clairement j'attends le moindre lien qui parle dune meilleure ia avec la mémoire vive... Le stockage de ses données sur la ram ne represente rien !
Ensuite je te dis que dead space 3 prend 512 mo de vram. Car cest un portage console.
En comparaison crysis 3 avec filtre msaax8 il faudrait 6gb de vram pour pouvoir contenir toutes les infos !!
Bref un jeux moyen sur pc si tu active les filtres ça te prends 1à 2go de vram...
Bref évite de trop parler hardware si cest pour raconter nimportr quoi..
-Je ne suis pas fan de Sony, il faut arrêter les pré-jugés.
-Oui, les moteurs purement conçu pour le PC n'exploiteront pas l'arhcitecture de la PS4 correctement. C'est un fait. Maintenant, c'est pas moi qui est inventée l'histoire de mémoire unifiée, allez vous plaindre au près de Sony, je n'ai rien à voir avec leur décision.
-Sinon, 8Go de GDDR5 pour le GPU, ça ne sert à rien du tout une telle quantité, c'est jeté l'argent par les fenêtres, plutôt que de laisser les dev' choisir leur budget mémoire.
Vegeta88
T'a fini ton caca nerveux ?
Oui, j'ai omi la qualité du framebuffer. Dans ma tête je pensais aux assets (textures/géométrie).
Et le lien, tu peux le chercher toi même, j'ai autre chose à faire que de me faire insulter et juger. Tu trouvera bien à quoi sert la mémoire vive dans le cadre d'une IA.
You have to realize that the early developement kits are based off PC's, they aren't running on PS4 motherboards with unified memory (and AMD APU), they have a PC CPU, PC Graphics Cards (with video memory), and PC Main Memory.
Reports of "1.5GB's of graphics data", is just that, the PC Graphics card in the dev kits only have 1.5GB's of VRAM available (or used) by GG.
Let's not assume it has anything to do with the OS overhead :S
frankly, I find it strange that now that the PS4 has 8GB's of Ram, all of a suddon the OS is going to take up more than it originally was rumored to use (512MB)... I doubt Sony is so un-organized to not have known about some of these major features in the OS, before making some stakes in the ground for OS memory usage.
Faut pas oublier que les kits utilisés sont basés sur des kits avec du Matos PC sans la architecture quasi finalisée de la console avec les 8 GB de ram.
Les kits , les tout derniers sont à peine arrivés au début del' année pour la plupart des devs. voire arriveront ce mois-ci.
T'es juste un troll pro sony de plus qui n'y connaît rien...
Tout ce que t'as raconté est limite voir faux comme tes 512 mo de vram max utilisé sur pc ... Enfin je sais pas même moi qui ne bosse pas dans l'informatique ou le développement je suis au courant de ça...
Et puis pour ton lien sur l'intelligence avec la ram je le veux bien car je n'ai JAMAIS lu que avoir plus de ram aurait la moindre incidence sur lia.
J'attend des preuves tangibles à tes accusations, allez !
Oui, 512 Mo, t'es pas dans le milieu et tu le savais. Tant mieux pour toi ! Et sinon tu veux encore en rajouter une couche ? Ca arrive à tout le monde de se tromper, ou d'oublier. Mais après tout, la politesse, tu connais bien.
Je t'ai déjà dit de te renseigner toi-même à quoi sert la mémoire vive dans le cadre d'une IA. Oui, j'y suis aller un peu fort par "drastiquement". Néanmoins pour mettre en mémoire des comportements d'IA, un système de souvenir pour l'IA, oui tout ça ca demande de la mémoire vive. L'IA en elle-même a besoin de mémoire pour exister, sinon on en serait encore aux IA de l'Amstrad CPC.
Toujours est il que en plus je t'ai prit pour un genre de Yurilowelle version sony mais apparement cest pas le cas et je m'en excuse donc.
Par contre tes conclusions sur lia et la mémoire vive encore une fois jai jamais entendu ça. Si t'as un article je suis preneur car cest calculé à base d'algorithmes ( y a plein de méthode différentes mais bon on va faire simple pour moi) géré par le cpu voir déchargé sur le gpu mais jai jamais eu vent de besoin en ram pour cela.
Par contre jai remarqué que le vocabulaire de Yurilowelle avait considérablement diminué et qu'il ne répondait que par des citations de commentaire et des +1 ! Jspr quon lui a coupé les doigts pour quon soit tranquille !
Pour la nécéssité de RAM pour l'IA, je vais essayer de te trouver un lien clair, mais déjà tu a un début de réponse par la logique. L'IA est assimilable à un "programme", comme tu le disait plus haut.
L'IA est calculée procéduralement au sein du CPU, mais il faut mettre les informations calculée en mémoire, sinon ce serait des calculs qui arriverait dans un vide. En soit, le CPU gère l'IA depuis la mémoire.
Il y a des systèmes d'intelligences artificielles plus ou moins avancées. Les dernières en date, déstinées aux jeux PC et consoles de 8ème génération gardent en mémoire des informations bien plus longtemps en quantité supérieur(comme la mort d'un acteur (personnage)). Il faut savoir que les IA ont besoin de plus en plus de mémoires, puisque leurs actions sont de plus en plus nombreuses et complexes.
Si l'IA a un nombre limité de mémoire, au bout d'un moment, les données antérieures seront effacées (virées) de la mémoire pour que de nouvelles puissent venir. Plus de mémoire = IA qui gardfent plus longuement les données, et qui peut en recevoir bien plus.
Je vais essayer de te trouver un lien sympathique.
Enfin je me trompe certainement mais je pensais que le stockage de ce genre d'infos etait vraiment minime.
Bref merci pour ton futur lien je regarderais ça demain et je m'excuse encore pour mon ton légèrement déplacé à ton égard... Faut jamais juger les gens trop vite mais cest vrai avec tous les troll qu'on voit jai fait un raccourci facile plus couplé à plein d'autre facteur ( exam, fatigue etc) cétait pas sympa de ma part...
Bref au plaisir et merci pour les infos !
Je t'enverrais le lien par MP peut-être dans la journée.
Ah bon ? Fais-moi un cours, je t'écoute.
Comment l'IA enregistre la dernière position où elle t'a vu ? Ne met-elle pas justement ces coordonnées en "mémoire" ? Par exemple.
J'attends impatiemment.
On peut également faire du pré-calcul d'IA et les stocker directement dans la mémoire.
Une IA, c'est comme une intelligence naturelle, ça a besoin de mémoire.
Exemple : Tu lance une grenade sur un ennemi et il s'enfui! il ne le fait pas parce qu'il est intelligent, mais simplement parce qu'il à un script qui se lancera automatique a chaque fois que cette action arrivera.
Concernant la Ram je ne vais pas m'attarder c'est trop long et je n’étais que de passage je suis fatigué lol!
En gros pour que ce sois clair plus il ya de ram plus on peux y stocker de l'information (de l'information temporaire).
Exemple : Quand vous jouez à Zelda et que vous rentré dans une maison ou autre pour détruire des vases ou coupé de l'herbe elle est mi en mémoire Ram! Si vous sortez et re-rentrez dans la maison les vases seront rétabli car la mémoire à été vidée et donc les modifications des paramètres des vases on été rétabli.
Autres exemple : Dans Gta quand vous roulez en voiture et que les passants et autre voitures défilent, ils sont temporairement introduit dans la Ram puis effacé quand vous vous éloigné ou tourné la caméra. sa permet de crée de la densité de la vie de la cohérence autour de nous, mais par manque de quantité de ram (sur des projet trop ambitieux, ou simplement car la ram n'est pas une mémoire à donné définitive mais temporaire) il est impossible de gardé en mémoire les information car elle est vite saturé (pleine) et il faut donc la vidé pour y inclure d'autres informations temporaire.
Sur pc et autre par exemple quand vous copié un fichier d'un point A à un point B il est progressivement placé temporairement dans la Ram pour ensuite être déplacé temporairement vers sa destination finale. On choisi la Ram car c'est une mémoire temporaire extrêmement rapide (BEAUCOUP) plus rapide qu'un sdd, hdd, etc etc!
L'IA est le domaine du CPU et c'est pas prêt de changé! c'est le cpu qui est à même de lancé les programme de scripts tous seul (enfin automatiquement). Vous imaginez si la ram contiendrait des programmes d'ia? en gros elle passerait sont temps à supprimé ses donné et il faudrait continuellement recrée?/copié?/déplacé?/ des programmes sans fin! Et sa serait le CPU qui le ferait donc gâché des ressources cpu sans fin inutilement!
D'ailleurs plutôt que des mots voici un extrait d'un mec de chez Ubisoft Dominic Guay : « Pour un jeu ouvert comme Watch_Dogs, ça veut dire quelque chose de très important parce que si votre jeu est un couloir, ok, vous pouvez mettre plein de détails. Notre jeu est une ville ouverte où vous pouvez emprunter une voiture de sport et conduire à 240 km/h. Donc ce qui se passe habituellement c'est que vous réduisez la taille ou la densité et vous vous retrouvez avec une rue dans laquelle il n'y a rien. Nous voulons une grande densité dans notre ville, plein de gens à espionner, plein de choses à faire. Donc pour conserver de la densité et de la dimension, la mémoire aide beaucoup. »
Bon aller bonne nuit j'y vais lol!
On n'a jamais dit le contraire.
J'ai moi-même écrit que c'est le CPU qui s'occupe des calculs. Mais des calculs sans mémoire, derrière, ça mène à où ?
Les données artificielles sont en Byte (octets), mais ces Bytes là il faut les stocker quelque part avant de pouvoir les redirigé vers les processeurs CPU ou GPU.
C'est comme les buffers, les assets, il faut de la mémoire pour que le GPU puisse ensuite rendre tout ça.
Les caractères ça coûte des Bytes, idem pour les coordonnées d'un objet, idem pour un script déclencheur, pareil pour les vertices, les textures, les effets, etc.
Une IA sans mémoire pourrait même pas "comprendre" où le joueur se trouve, si un tel acteur est "off". En gros, la logique du système tomberait complètement à plat.
Des acteurs (IA) dans une scène qui chassent le joueur et voient ce dernier se cacher dans un mesh (façon Assassin's Creed, par ex.) contenant des informations (en octets, encore) avec des propriétés radicalement différentes qui sont redirigé vers le CPU. Le CPU "lit" les données en binaire et fait le lien avec les acteurs. Résultat : Ces derniers ne te voient plus, simulant un "mur".
Les boîtes de collisions, le pathfinding, l'IA, tout ça, il faut de la mémoire.
Bonne nuit.
"Les boîtes de collisions, le pathfinding, l'IA, tout ça, il faut de la mémoire."
Ceci c'est des positions. X,Y,Z... Ceci prend 12 octets chaque coordonnés. Sans compté l'optimisation qui peux être fait avec ce genre d'information stocker en mémoire
Dans ta mémoire vivre tu as 8 000 000 000 octets. Pense tu vraiment que cela cause vraiment un problème.
Je démontrait simplement que l'IA a bien besoin de mémoire pour exister, et avancer.
Edit : Je fatigue. Allez, bonne nuit à tout le monde.
Savoir aussi que kapa et vegeta88 parle de technique ça fait limite sourire . Car il y a vraiment des mecs qui s'écrase quand Seb leur parle de technique c'est bien eux .
Afin de clore le débat j'ai été me renseigner un peu sur le net.
Et bien la RAM ne sert à rien dans la gestion de l'IA.
Ce ne sont que des séries de scripts qui se déclence en fonction d'une info temps réel, d'une action ou d'une situation.
La seule valeur qui influence la qualité de l'IA, c'est le CPU.
La DDR5 n'existe pas encore.
http://www.spacesector.com/blog/2012/12/ai-design-in-4x-games-an-overview/
/>
Tu n'a pas bien chercher, alors. Heureusement que j'ai beaucoup de patience.
A partir de la page 5. Je peux continuer longtemps.
Renseignez-vous sur les algorithmes, les states, le streaming des arbres d'IA, et j'en passe.
Sans mémoire, l'IA n'existe pas. Tu aura beau avoir un CPU super puissant, sans mémoire, tu n'ira nulpart.
Un peu de reflection :
Ton cerveau calcul, mais il calcul par rapport à quoi ? A quelles données ?
Les données se trouvent où ? Pour que tu réagisse, il faut que les données/informations en mémoire transitent vers l'organe chargé des calculs, analyses.
C'est pareil avec les orfinateurs.
Le CPU a besoin de la mémoire, sinon il ne peut avoir dindications, de bases et de rafraichissements de données.
C'est comme si tu calculer, mais ces calculs se perdent aussitôt dans un vide cosmique.
Bref, je vous souhaite bien bonne chance pour faire marcher une IA sans mémoire vive, dans un jeu ... J'ai jamais réussi. En fait, c'est tout bonnement impossible.
Débat clos.
Par ailleurs, en plus de présenter les IA de deux jeux de stratégie dans tes exemples, rien n'indique que que la RAM y est importante.
Dans le cas du PDF, il insiste même sur le CPU.
Les IA sont aujourd'hui très scriptées et il est quelque peu mensongé de les appeler des intelligences artificielles dans le sens ou les véritables intelligences artificielles sont dévellopées complètement differement avec une grande quantité de "mémoire" qui n'est ni de la ram ni de la rom mais des données stockées sur une longue durée typé betement comme un disque dur. Cela leur permet en plus de cumuler les infos et par des liens logiques "d'apprendre par soi même".
On est alors très très loin des scripts betes et méchants que l'on retrouve en jeu vidéo qui consomment très peu de ressource côté stockage d'infos.
Toi-même tu parle de scripts, ce qui est vrai, je n'ai jamais dit le contraire. Mais les scripts c'est quoi ? Des algorithmes. Les algorithmes nécéssitent de la mémoire à court terme/volatile pour entrer en contact avec le CPU et sa capacité en calcul.
Dans mon pdf il dit clairement que la mémoire et le CPU sont indisociables.
J'ai mit des exemples de jeux de stratégie, mais j'aurais pu t'en mettre de jeux de baston, FPS, etc. Ca revient au même.
Plus de mémoire =/= meilleure capacité de calcul.
Plus de mémoire = Plus de de capacité de stockage et donc tout ce que cela entoure.
J'espère que c'est clair.
Mais tu pourrais mettre 150 Go de RAM que ca changerait rien.
Ca reste bien trop petit pour que 8Go de mémoire vive ait une influence sur l'IA.
Le CPU n'aurait qu'à trouver une solution pré-établie (scriptée) parmis d'innombrables possibilités qui s'offre directement à lui depuis la mémoire volatile, par exemple.
Je ne sais pas combien de RAM les dev' prendront pour les tâches d'IA, leur indépendances, les souvenirs, etc. Mais il y aura forcément un bond, si ils s'en donnent la peine.