On se demandait quand Nintendo allait activer sa puce cachée dans la Wii U pour la booster ! Et bin la chose est faite depuis la dernière mise à jour 3.0.0
Technical Specifications
Processors
The CPU and GPU are built on the same package.
CPU: IBM PowerPC 7xx-based tri-core processor "Espresso" clocked at 1.24 GHz before the 3.0.0 update,
3.24 GHz after the 3.0.0 update. This is an evolution to the Broadway chip used in the Wii, is 64 bit and uses Power6 technote When IBM has said that Nintendo has licensed the Power7 tech from IBM, Nintendo is not using it for the Wii U, explaining its backwards compatibility.
GPU: AMD Radeon High Definition processor codenamed "Latte" with an eDRAM cache built onto the die clocked at 550 MHz before the 3.0.0 update,
800 MHz after the 3.0.0 update.
(Ceci n'est qu'une rumeur et cet article a été écrit avec un put** de fou rire
)
L'espresso ne peut pas aller jusqu’à 3GHZ sachant le type de cpu que c'est, encore la source serait crédible si elle parlait de 2ghz et ce n'est pas le cas... On peut s'attendre a un boost a 1,50 ghz. mais vu l'archi de l'espresso et que ce cpu est justement fait pour tourner à faible fréquence c'est tout simplement du n'imp total...
Après pour le gpu il a déjà été boosté avant sa sortie, il tournait a 400mhz pour passer a 550mhz. On rappelle que la machine tournera gros max à 40w comme le fut la gc en son temps. Faut pas s'étonner après que les fanboy amènent ce genre de bêtise sur les divers site et s'énerve contre la firme après avoir cru ce genre de merde.
Sorento: Ouai ouai et la ps4 a de l'edram, elle est super ta source(cf forum de gameblog)!
La gueule du i7quand tu le fait passé de 3.6 à 7 Ghz
http://www.pcinpact.com/news/61964-990x-x58aoc-7-ghz-azote-liquide-hicookie.htm
Les kits de développement définitifs n'étant pas prêts avant mars 2013, ce n'est pas surréaliste.
En plus, si ça s'avère vrai, Nintendo joue une carte importante. Sony et Microsoft n'ont pas joué la surpuissance et pensaient larguer la Wii U. Si cette rumeur est vraie, le gap entre la Wii U et les 2 autre sera moindre. D'autant plus si l'edram est boostée également. Ca risque de faire une sacrée différence.
Imaginez le jeu de Retro avec cette console "libérée"? Des larmes vont couler!
Une rumeur disait que nintendo avait "forcer" les dev a ne pas utilisé correctement la puissance de la console en bloquant une grosse partie du hard .
N oublié pas que le GPU est lié a l Edram et que l edram fait office de gros booster
Sauf qu'actuellement, la console ne chauffe pas du tout et que le ventillo chez moi n'a quasi jamais tourné. Il y a de la marge avant d'atteindre la production de chaleur d'une 360!
puis 3,2 ghz en out of order la wiiU serait la plus puissante de la gen et une usine a gaz
Mise a jour 3.0 de la Wii U, réservé 18+ & Nintendo fournis l'azote liquide
Roivas: Ils vont surtout unlocker la ram quand ils auront bien optimisé l'OS, c'est pas impossible d'avoir 200mo (voir max 500mo) supplémentaire pour les jeux dans les temps à venir.
A croire certains, la Wii étaient un GC overclocké. Elle faisait quand même des choses étonnantes pour un GC. Les effets de lumière et les textures sur Mario Galaxy c'était pas du GC du tout.
Au mieux, ils peuvent débloquer 30% de plus sans atteindre la fiabilité de la machine.
mais l'augmentation de la machine viendra de l'optimisation de celle-ci; elle gagnera des ressources qui seront redistribuées vers d'autres.
Il faut pas rever.
Par contre, le probleme vient des developpeur qui optimise rien du tout et veulent plus de puissance brut pour ne pas se casser la tete.
Mais les jeux arrivent, du moins je crois
Autant pour le GPU pourquoi pas, mais pour le CPU O_O
Il est possible qu'une partie du CPU soit underlocké, mais pas à ce point là.
De même qu'utiliser un booster, je ne sais pas s'il pourrait atteindre de tel fréquence, mais sa devrait en patir sur énormément point technique comme la surchauffe, la durée de vie du produit etc.
Non plus sérieusement je doute de cette puce cachée, c'est un mythe.
Simplement la GC embarquait une fonction 3D on vas dire pour comparer avec la rumeur de la puce caché.
Forcément la Wii étant une GC 1.5, la posséde aussi. Rien d'autres à voir pour les fanboys comme pour les haters
Ni plus ni moins, et depuis on se tape ce sketch partout.
watch dog devrait être un indicateurs
Je trouve déjà Need for Speed bon indicateur, pour du multi.
C'est globalement plutôt symapthique, surtout par rapport à ce que la machine consomme, comme l'a dit Seb.
Plus que les tiers et leurs multi, j'attends de voir les jeux first party, qui à mon avis risquent d'être fort jolis (technique maitrisé et bonne DA).
Mais oui, Watch Dogs devrait montrer ce que la machine peut faire, lorsqu'il s'agit de multi-plateforme. C'est le genre de jeu bien costaud niveau GPU et surtout CPU.
Le pire, c'est que sa tête me dit quelque chose. Elle ressemble à un membre du site Gamekyo lorsque celui-ci s'appelait encore Jeux-France.com.
Je peux me tromper, mais elle y ressemble.
Ouaip, c'est bien ça !
Je vis à travers les ages
En tous cas, après l'analyse des internautes, la cadence des processeurs n'a pas bougée d'un poil. La machine consomme toujours entre 20w et 37w dans les applications/jeux.
C'est possible d'augmenter légèrement la vitesse d'une console, mais pas la doublée ( Pèpère l'overclocking du CPU
À mon opinion, au mieux le GPU pourrait monter à 600-650Mhz et 1.5GHz pour le CPU, dans le futur sans que la chauffe ne soit trop importante par rapport à l'architecture, mais pas plus.
De même pour la RAM allouée aux jeux, qui pourrait augmenter.
Après je sait pas pourquoi les gens prennent autant la puissance de la WiiU avec importance. Elle n'est pas mauvaise et devrait offrir assez de jus aux dev' pour faire de jolies choses. L'important reste quand même les jeux, et pour le moment c'est le seul véritable soucis qu'à la WiiU.
Je viens de vérifier, et effectivement le bloc peut supporter jusqu'à 75watts (15 Volts - 5 Ampères). Autant dire que c'est pas une machine qui risque de bouffer grand chose, et c'est franchement bien comme ça.
La Wii était aussi très peu gourmande en conso'.
Du coups, cette farce d'overclocking tombe complètement en lambeau.
Alors que pour l'instant ces derniers ont tous simplement obligé les dév à gère les 2 flux vidéo de la console, ce qui utilise une partie de la puissance de la machine, celle-ci gèrant 2 flux vidéo à la fois
C'est sûr que dans le cas des jeux dans lesquels les deux fluxs sont 2 framebuffers différents (et non un simple streaming d'un seul et même framebuffer (ce qui ne coûte quasiment rien en puissance)), les dev' perdent de la puissance brut à cause du gamepad.
D'ailleurs, l'un des jeux les plus impressionnants sur WiiU pour ma part, est Nintendo Land (oui, oui). Gérer deux véritables buffer d'images et réussir à proposer un bon rendu avec parfois jusqu'à 5 caméra virtuelles, c'est franchement du joli boulot.
Si les devs se concentreraient uniquement sur un écran, le résultat serait meilleur, assurément.
"N oublié pas que le GPU est lié a l Edram et que l edram fait office de gros booster"
L'eDRAM ne booste rien du tout, il sert de mémoire cache pour les buffers. ;p
Cela dépend du jeu... sur Sonic, l'ecran te demande de regarder le gamepad.
Assasin creed aussi de memoire...
Rayman Challenge App, lui désactive l'affichage de l'écran de la TV pour y afficher une simple bulle d'info, le tout se passant sur le Gamepad, Toki Tori 2 aussi fait le même genre de chose en mode Off TV.
Cela indique peut être que la console ne peut pas désactiver les flux vidéo pour le moment, obligeant les dév à laisser les 2 activées avec plus ou moins d'info, quand l'on joue sur le Gamepad.
"the system can use up to 75W of power, though it usually runs off around 45W" (http://www.edge-online.com/news/wii-u-released-in-japan-in-december-worldwide-details-later-today/)
Mdr !
http://farm5.static.flickr.com/4056/4450382315_01983b20e9.jpg