Je ne vais pas traduire l'article en entier, j'ai vraiment la flemme, mais voici un micro résumé de cet article qui vient d’apparaître sur le site Eurogamer/Digital foundry) :
http://www.eurogamer.net/articles/digitalfoundry-2017-new-performance-mode-boosts-handheld-switch-clocks-by-25-per-cent
- On apprend que la puce mémoire du stockage interne de la Switch (32 Go) est placée en dehors de la carte mère, ce qui permettra à Nintendo de proposer des modèles avec plus de mémoire de stockage assez facilement et sans modifier la carte mère.
- La Switch aura droit à différents modes de performances. Libre choix au développeurs de choisir leur "mode".
- La nouveauté, c'est que les développeurs peuvent opter pour une horloge cadencée à 384MHz (GPU) pour le mode portable.
- On obtient 25 pour cent de puissance de calcul supplémentaire par rapport à l'option 307.2MHz par défaut
- Les différents "modes" de fréquences sont disponibles pour les développeurs.
- Les utilisateurs ne peuvent pas choisir entre ces fréquences (logique).
- Des ajustements ont été apportés à la bande passante disponible pour la mémoire
- L'option 1600MHz est maintenant disponible uniquement en mode «boost» (lorsque la console est à quai), en mode portable la mémoire tombe à 1331 Mhz, le support des 1600MHz en mode mobile est maintenant plus possible.
(Avis perso, je pense que Nintendo a préféré privilégier la puissance de calcul du GPU plutôt que la fréquence mémoire qui est moins importante pour le 720p, ce qui permet à la console de gagner en puissance sans trop taper sur la batterie).
- Les devs peuvent choisir d'exécuter le mode de puissance "portable" (307.2MHz/384 MHz) alors que la console est sur son dock.
- La documentation (que s'est fourni Eurogamer) ne fait pas mention d'un nouveau mode de boost de puissance en mode dock.
- Tout les jeux n'utiliseront pas le mode portable boosté à 384MHz (GPU) , les 307.2MHz reste l'option par défaut
- La puce semble être une Tegra X1 légèrement modifiée, dans tout les cas, elle ressemble beaucoup à un Tegra X1, avec des spécifications en accord avec la Tegra X1 au vu de ses fréquences et de la consommation d'énergie qui correspond aux caractéristiques du processeur 20nm de la fameuse puce Maxwell.
C'est pas balèze ?
Tu double le nombre de coeurs > tu double la conso de la puce...
Si Nintendo voulait augmenter la puissance de la Switch, ils mettraient les fréquences de la puce à 1 Ghz, ça ne coûte rien, mais ça bouffe de la batterie, tout autant que d'augmenter le nombre de Cores CUDA.
kimouz J'espère que tu va te régaler
Maintenant, j'ai pas la motivation de me renseigner plus que ça sur la conso exact de la ram et l'augmentation de conso d'une puce boosté à 25%...
Mais je pense qu'il y a un lien entre boost du GPU et baisse des fréquences de la ram, et ça me laisse penser que ça devrait limiter la casse niveau utilisation de la batterie.
tu reste aveuglé par eurogame qui on sorti leur premier chiffre d'un kit de dev " le TX1 " qui n'as rien avoir avec la switch , c'est juste un kit mobile que tous le monde peut avoir pour 500 - 600 euros
https://blogs.nvidia.com/blog/2016/09/28/xavier/
http://www.anandtech.com/show/9903/nvidia-announces-drive-px-2-pascal-power-for-selfdriving-cars
http://i.imgur.com/MSitMrq.jpg
On a 4300 mAh de batterie. On a une puce à 16 nm au mieux (mais sans aucun doute pour moi que c'est du 20 nm). On sait qu'une puce avec 256 CUDA coûte bien moins cher qu'une puce avec 512 CUDA. On sait que la fréquence max de la Switch est en dessous de ce que pourrait réellement offrire la puce à pleine puissance (1Ghz pour de la Tegra X1 de base). On imagine bien que Nintendo sont les rois des centimes, ils font tout pour optimiser les coûts, si ils rajoutent du CUDA, c'est pas pour cadencer tout ça à "seulement" 768 MHZ. Si on avait 1 Ghz pour le GPU, je serais plus nuancé, mais là, on est en dessous, donc bon, pourquoi sous cadencer la puce quand la monter à 1 Ghz permettrait déjà un bon boost sans que ça ne coûte plus cher ? La réponse est simple, la puce se retrouve dans une petite tablette de 6.2 pouces dédié au jeuvidé qui va taper dans cette même puce durant des heures d'affilée de manière intensive, et tout ça ne doit pas trop chauffer.
Je reviens je vais me chercher de quoi grignoter
mickele va être triste alors arrête d'être réaliste et vends lui du rêve bon dieu
Après perso osef, c'est le mode portable le plus aboutis des deux de toute façon, tant niveau design que ergonomie.
Sur le dock elle est moche et la manette est juste horrible (celle avec le grip) et niveau ergonomie ça semble pas terrible à ce que j'ai lu.
Donc mode portable > mode salon.
mais bon vu que pour toi la switch c'est 0.173 gflops je comprend que t'es du mal à imaginer :d
mickele La Switch en mode salon est 2.2 x plus puissante qu'une WiiU. L'écran Splitté ne double pas par 2 la puissance nécessaire, ça tape plutôt dans la ram. (tu t'écris à toi même maintenant ?
Si non, tu peux me trouver l'endroit où je dis que tu ne dois pas réagir sur mon article ? Ne commence pas à faire la victime imaginaire STP
Et puis comme la WIIU et sa portable, pour moi c'est mode salon car c'est plus détaillé et confortable.
http://www.lemonde.fr/pixels/article/2015/08/19/ou-sont-passes-les-jeux-video-multijoueurs-a-ecran-separe_4730211_4408996.html
Afficher un écran splitter, et tu es toujours en 1080p pour les deux écrans, tu as toujours la même map géré par la console, tu as simplement deux vues différentes du même jeu. A la rigueur, compare ça à de la VR qui tournerait à 30 fps voir 60 fps (suivant les jeux), mais pas à "2 x plus de puissance", c'est juste un raccourcis à deux balles ça.
- jouer sur sa TV en tant que console salon = jeux dégueux
- jouer en tant que console portable = jeu potable.
C'est ce que je craignais de cette console hybride ...
Mais si tu veux un début de réponse, pour qu'il faille 2 x plus de puissance, il faudrait 2 écrans de 1080p branchés sur une seule console, ces deux jeux seraient 2 jeux différents qui utilisent la console à 100% pour chacun. Et là, il faudrait 2 x plus de puissance CPU, 2x plus de puissance GPU et 2x plus de puissance mémoire.
Un jeu en écran splitté, c'est la même gestion des polygon, même gesttion CPU ( je pense à Lego City, les PNJ font exactement les mêmes action sur les deux écrans, le CPU ne le calcul qu'une fois pour les deux écrans), c'est simplement un seul jeu qui tourne sous deux angles différents et chaque angles projetés ne tourne pas en 1080p, mais dans une résolution 2 x moins élevée.
En gros, c'est du "PSVR" mais en 30 fps pour Lego City, le PSVR c'est 2 écran splittés sous deux angles de vue différents, sauf qu'en VR, il faut ajouter un super sampling pour que ça ne soit pas dégueulasse. J'ai pas testé, mais RE7 tourne en VR, je pense qu'il est bien aliasé puisque très "beau", il faut simplifier les jeux dans leur technique pour avoir quelque chose de propre en VR.
jeanouillz Oui, je veux bien te croire
Pour résumer, dire qu'il faut 2x plus de puissance pour jouer en écran splitté c'est faux, il faut un peu plus de puissance, mais clairement pas 2x plus de puissance. Je t'ai déjà expliqué dans quelle condition il faudrait 2 x plus de puissance.
La VR quand je la suivait à ses début, ça parlait de 30% de ressource en plus nécessaire pour afficher 2 vue différentes sur un même écrans, ce qui bouffe par la suite, et c'est lié à la VR, c'est de passer de 60 à 90 fps (sur PC) et de 30 à 60 fps (sur PS4), + le super sampling qui bouffe vraiment beaucoup (le super sampling, c'est augmenter la réso interne, c'est à dire, passer du 1200p à 2400p (super sampling 2.0) ).
c'est juste commentaire d'un forum mais je suis pas le seule a pensé que divsé en deux l'écrant c'est diminué par 2 les fps donc la puissance par 2
https://www.halo.fr/forums/topic/13070-le-probl%C3%A8me-de-l%C3%A9cran-splitt%C3%A9-dans-halo/
Mais une salon qui dépote et attire les tiers.
3840 x 1080 = 2 x plus de puissance graphique nécessaire par rapport au 1080p seul = 2 x 1920 x 1080.
960 x 1080 x 2 pas du tout égal à 2 x plus de puissance graphique nécessaire par rapport au 1080p seul.
https://www.youtube.com/watch?v=TgYl272fPLY
suppaman dans ce cas tu payeras ta console 400e minimum. Marrant de demander ca alors que ca pleure sur le tarif actuel.
Et pour Mario Kart, ton exemple est toujours en mode racourcis. Je mettrais ma main à couper que le jeu pourrait osciller entre 60 et 35 fps avec le split à 4, mais ils ont locké à 30 fps pour avoir quelque chose de stable. En générale, et on le sait bien, les jeux locké à 30 fps pourraient aller au delà, sans pour autant atteindre les 60 fps constant.
Et oui, c'est bien 60 fps en double screen, dans mon esprit, c'était du 30 fps.
Bref, je pensais que tu avais compris mon clacul, qui prouve mathématiquement que 2 x plus de ressource nécessaire pour du split screen est faux. 2 x plus de puissance pour 2 jeux tournant réellement indépendamment sur le double de résolution est juste.
Tu "c'est" que j'ai tort, et t'as pas 20 ans...
Bref, j'ai pas 20 ans non plus, ce qui me permet d'avoir un peu de recul concernant Nintendo, et ne pas prendre mes espérances pour des réalités.
tien lui il pense comme moi en ce qui concerne la switch et ainsi que la dif entre Nvidia/AMD
https://www.youtube.com/watch?v=c_hHkVXOOMM&t=2s
Pourtant lui tu n'oseras jamais lui dire qu'il dit n'imp... en tous cas il est toujours plus crédible que toi ou moi et vu que je pense comme lui avant même de voir ça vidéo
Nintendo fait cette Switch portable et un dock vrai salon plus puissant pour 400 boules
Je fonce
Détendez vous...
Nintendo l'a répèté a mainte fois, ce qu'il ont fait avec la Switch (comme avec la 3DS dont le PICA 200 tourne de base à 200 mhz mais à 133 mhz dans la 3DS) c'est obtenir un max de performance à faible consommation.
Se baser sur les performances du tegra X 1 est une erreur, la customisation change grandement la donne... Nintendo a peut-être intégrer de l'edram dans le tegra... Idem pour la RAM, c'est peut-être du 25 go/s mais y'a 2 x 2mo qu'ils pourraient fonctionné en dual chanel donc avec un débit de 2 fois 25 soit 50 go/s (la xboxone c'est 65 go/s)
Ocyn, par ailleurs tu négliges complètement une information de l'article, l'API !!! Ça permet d'augmenter les performances de façon considérable, par exemple Vulkan augmente jusqu'à 40% les performances de jeux utilisant des moteurs graphique comme unity ou Unreal Engine (et je parle sur PC, sur console ou l'architecture est bloqué, l'optimisation doit être bien plus important).
Bref on a pour l'instant aucun moyen de savoir les performances réelles de la Switch. Ce qui est sur c'est qu'elle supporte l'UE4 en portable aussi bien que docké et Epic Games disait qu'il fallait 1 TFLOPS minimum pour le faire, donc elle envoie même en portable (probablement grâce à un API de grande qualité)
Les batteries peuvent avoir différentes qualités, ton gpd ne coûte pas, y'a probablement une batterie de merde... Le choix d'une batterie pas super puissante sur Switch vient peut-être qu'elle aura une grande durée de vie avec un amperage constant.
Ensuite ocyn n'a pas parler d'une autre chose dans l'article, la Switch est facilement démontable avec des vis, alors que de nombreuses tablette / smartphone sont collés rendant très difficile leur démontage (surtout le remontage)
Et finalement, tu la prends cette console ?
Il ne faut pas oublier que Vulkan permet des gains grâce à deux éléments :
- L'async compute, mais les CG Nvidia ne montrent pas de gain important lorsqu'on active ce mode.
- Le fait que ça soit une API de bas niveau. Mais c'est déjà le cas sur console depuis bien des années.
Et yep, je l'ai préco, hâte de faire Zelda dessus
mordeth Merci, j'allais lui expliquer, tu m'as devancé.
akeos On compare (ou pas), la Switch avec les consoles et pas les PC. La Xbox One est très bien optimisée, elle nous fait de belles choses avec ses petits 1.3 Tflops (pour la fat), DX12 est aussi une API de bas niveau, toutes les consoles sont opti jusqu'à la moelle, surtout les consoles Sony et Crosoft qui ont de gros moyens.
UE4 et ses 1 Tflops minimum, si je me souviens bien, ça date de cette histoire de WiiU, mais entre temps UE4 a débarqué sur des smartphones. L'UE4 a été adapté à la Switch parce que Nintendo s'est donné les moyens de convaincre sans aucun doute, et l'architecture Tegra X1 a sans doute aussi facilité les choses, malgré sa puissance mobile, ça reste une puce moderne qui intègre des fonctions modernes, on est pas dans la même trip de la Pica 200 sortie en 2006 pour une console qui sortait 5 ans plus tard. La tegra X1 n'a "que" 2 ans.
Maintenant, oui la Tegra X1 = 1 Tflops FP16 et du coup en comparaison avec les consoles "concurrente" (mais aps tout à fait concurrentes), elle est à 0.512 Tflops fp32. Avec les fréquences qu'on connait, leakées par Eurogamer et que tu retrouves dans cet article, on va s'éloigner un peu des 0.512 Tflops. On va me sortir l'histoire des 512 cores CUDA, qui pour moi est du rêve, mais admettons... Même avec 512 core CUDA, la Switch n'atteindrait pas les 1 Tflops FP32 en mode dock, je ne parle même pas du mode portable et ses désormais 384 Mhz (vs 1000 mhz pour arriver à du 1 Tflops FP32 avec 512 CUDA cores).
Maintenant, avec tout ça, il faut revenir sur terre, et une console portable avec une puissance légèrement supérieur à une WiiU, c'est très puissant, c'est du jamais vu venant de Nintendo en comparaison de leurs anciennes consoles porrtables, de leurs puissances en comparaison de ce qu'il se faisait sur le marché. La DS et la 3DS avaient un hardware faiblard par rapport à ce qui se faisait en matière de puce mobile, la Switch a une puce mobile qui se trouve dans le haut du panier de ce qu'il se fait actuellement (elle a simplement la puce la plus puissante du marché, tout simplement, mais avec un petit bridage pour des raisons évidentes d'autonomie, cette même puce est utilisée dans les tablettes les plus puissantes du marché. Ces mêmes tablettes ne sont pas faites pour du jeu intensif, donc ça se comprend ce downclock pour la puce Switch, l'optimisation fait largement la différence).
maintenant, si on avait la technique de Uncharted 4 sur une console Nintendo, je ne cracherais pas dessus, et j'imagine que beaucoup de fans Nintendo qui nous disent "on s'en fou des graphismes" seraient les premier à venir se la péter des graphismes de ouf de leur future console Nintendo.
La Switch supporte Vulkan, UE4 supporte Vulkan, Linux (noyaux de l'OS Nintendo) supporte Vulkan
Et je t'invite à lire ça
http://www.numerama.com/tech/147427-mwc-2016-vulkan-propose-des-graphismes-dignes-dune-console-de-salon-sur-mobile.html/amp
Nintendo a choisis Vulkan, Microsoft a son Direct X12, Sony fabrique peut être son API de son côté, je ne sais pas trop. Mais dans les faits, ça ne change rien, les consoles utilisent toujours des API de bas niveau. Les PC utilisent et Vulkan et DX12, on sent l'uniformisation dans le monde du jeuvidéo quoi...
Pour en revenir au titre de ton article, il est là pour générer du clic, mais tant que les PC évolueront comme ils évoluent, et tant que les consoles de salon reprendront des composants PC pour leur puces graphiques, jamais les smartphones n'arriveront à atteindre le niveau des consoles de salon en terme de technique. On est à du 0.5 Tflops sur smartphone, on dépasse le 11 Tflops sur PC (les futures puces consoles), et les deux plateformes utilisent Vulkan (le PC a le choix entre DX12 et Vulkan, DX12 a sensiblement les mêmes rendement d'optimisation que Vulkan, le choix est fait par les développeurs).
Et pour conclure, les API de bas niveau permettent de tirer moins sur le CPU, les petit CPU sont favorisés, ce qui permet à des machines pas trop puissante de balancer de la particule et des animations facilement, le GPU en bénéficie dans une moindre mesure.
Tout ce que je dis, c'est que si on se lance dans un comparatif ps4/Xbox One vs Switch, il ne suffit pas de regarder les TFLOPS, les gpus des consoles Sony et Microsoft sont des processeurs de 2011 qui sont optimisé pour des API tout aussi ancien, la Switch utilise une technologie de 2015 avec un API permettant d'exploiter d'une manière bien plus efficace, la Switch est capable de faire plus avec moins de puissance de calcul.
Pour reprendre une pub, sans maîtrise la puissance n'est rien, la Switch est moins puissante mais l'exploitation de cette puissance est bien meilleure grâce à Vulkan.
Donc s'arrêter a la puissance de calcul est une erreur, l'API et les outils de développement sont tout aussi important, le tegra est plus rescent mais les logiciels permettant d'extraire cette puissance son également bien plus moderne.
Bref, la modernité du matériel et de son API doivent être pris en compte quand on compare leur capacité, 4 ans en informatique/électronique, c'est une "éternité ". C'est Quelques que choses que tu éludes complètement dans tes articles...
akeos Et pourtant non, la Xbox One est compatible Windows 12, API très récente, plus récente que Vulkan de quelques mois
Après, si tu crois au miracle, et si tu imagines qu'avec une Tegra X1 "customisée" pour le jeu intensif (downclock entre autres), permettra de faire aussi bien qu'une Xbox One, libre à toi. Ce que je remarque, c'est qu'à chaque sortie de nouvelle console, on a les mêmes espérances, on imagine qu'on aura beaucoup beaucoup plus beau les années suivantes grâce à l'optimisation voir la "puce caché" ou encore "ce ne sont que des portages gamecube" (pour la Wii), ou "Nintendo ne maîtrise pas encore bien la HD" pour la WiiU ou "ce n'est que des portages WiiU" pour la Switch. La réalité selon moi, c'est qu'on a une puce mobile dans une console portable avec cette Switch, et que le miracle attendu à chaque fois n'aura pas lieu. Je vais me contenter de ce qu'on a vu avec Arms, Mario et tout le reste, ça me suffit amplement pour une console portable.
Maxwell offre 65% de performance en plus que kepler pour la même consommation électrique (gap qui s'observe à chaque génération) Donc effectivement il est difficile de comparer une Switch et une xboxone. Mais la xboxone s gravé en 16 nm consomme environ 50 watts (l'apu), comparez à la Switch qui consommerait 16 watts en mode portable (dixit l'article) consomme probablement 35 à 40 watts sur le dock (d'ailleurs l'alimentation est conçu pour délivrer 50 à 60 watts)
Aux vues de ses chiffres qui sont un indicateur important et de la modernité du matériel , la Switch n'est probablement pas si éloigné des performances d'une one en mode Docké.
D'autres paramètres sont importants, la rapidité du développement, le compilateur sur Switch est extrêmement rapide, les kits de développement sont 10 fois moins chère (permettant d'avoir la aussi bien plus de travail sur une même période). Tout ça participe à l'optimisation des jeux sur Switch, plus un jeux est optimisé plus il utilisera au mieux la machine.
Bref y'a pas besoin de parler de puce caché, pour dire que la Switch ne sera pas aussi larguer que certains le pense. D'ailleurs l'augmentation de 25% du gpu en mode portable est probablement la pour que les développeurs soit plus à l'aise pour porter leurs AAA. Y'a pas de mystère, si la switch en mode Docké consomme 30% de moins que la one, mais offre une plus grande efficacité énergétique, la Switch a des capacités proches.
Je finirais par une spéculation personnel, la Switch a probablement un écran supportant la HDR (option intégrer au jeu fast rmx) ce qui permettra des graphismes plus réaliste en mode portable que 95% des écrans TV qui équipe nos salons.
- Si la Switch consomme 16 Watt en mode portable, j'imagine que ça comprend la puce Tegra X1 + l'écran et tout ce qui demande de l’électricité comme la ram, la mémoire interne, les hauts parleurs etc.
En nous basant sur les 16 Watt et en sachant qu'en mode dock, la Switch est 2.2 x plus puissante, on arriverait alors à 35.2 Watt. Mais ce calcul est faux, la Switch en mode dock consomme sans aucun doute un peu moins, puisque l'écran ne fonctionne pas en mode dock.
- Se baser sur l'alimentation d'une console pour conclure de sa consommation n'est pas sérieux. La shield avec sa Tegra X1 (puce qui consomme 10 Watt) a une alim de 60 watt aussi (comme par hasard). Mon PC a une alim de 650 Watt, mais dans les faits, il consomme 400 watt grand max en charge. Il y a toujours une bonne marge entre le conso d'un appareil électrique et ce que peut délivrer l'alim de cette appareil.
Comme je le disais, tu peux toujours te trouver toutes les explications qui vont dans le sens d'une Switch à la hauteur d'une Xbox One, mais j'suis clairement pas dans ce trip basé sur rien de sérieux.
Si la switch consomme 30 watts docké et la xboxone 60 watts, que tu mets dans l'équation que la Switch a 50% d'efficacité énergétique en plus (et je dois être sous la réalité, ram bien moins gourmande, ARM, et d'une façon générale tout les efforts fait pour qu'en mode portable elle soit peu consommatrice d'énergies par rapport a une machine de salon qui n'est pas conçu dans cette optique), la Switch serait au environ à 75% des capacités d'une xboxone.
Au final, à quai, la Switch est une xboxone d'environ 1 TFLOPS...
C'est très approximatif, du calcul à la louche, mais plutôt arrondi au dépend de la Switch. Donc la Switch n'est absolument pas larguer...
D'ailleurs http://worldissmall.fr/2016/02/22/liphone-plus-puissant-ps4-xbox-one-2017/amp/
La Xbox One S a sa puce gravée en 16 nm (20 nm pour la Switch) et consomme 78 Watt sur Doom 3 : http://www.lesnumeriques.com/console-de-jeu/microsoft-xbox-one-s-p33311/test.html (t'as un tableau sur sa consommation).
Maintenant, suffit de voir les jeux Switch tourner pour comprendre qu'elle n'est absolument pas à comparer avec la Xbox One, dans le cas contraire, si, elle est très largement larguée.
Tu oublies qu'un lecteur blueray consomme 10 à 20 watts, auquel faut rajouter le DD...
Si les plus grands fabricants d'électronique disent que les smartphones et les tablettes dépasseront la xboxone et la ps4, en 2017, libre à toi de ne pas le croire... Le jaguar est un processeur pour ordinateur portable, leur gpu sont des antiquité qui était déjà à la ramasse face au gpu Nvidia...
Si la Xbox One consomme "autant" avec ces 16 nm, c'est bien parce que sa puce graphique a plus de "Cores" que la Switch (896 pour la Xbox One vs 256 pour la Switch), et qu'elle a une mémoire plus énergivore avec sa bande passante de 219 Go/s (entre 25 et 50 Go/s pour la Switch, ça reste à définir, tout dépend si la Switch fait du dual chanel ou pas), et cette donnée sur la vitesse mémoire influe aussi sur la puissance graphique.
Un petit lien pour les unités de calcul de la Xbox One : http://www.tomshardware.fr/articles/xbox-one-playstation,1-46320.html
Pour la conso d'un lecteur blue ray, on est loin des 10 à 20 watt hein, un lecteur blue ray que tu branche sur ta TV (le boitier avec tout le matos qui permet de décoder le Blue Ray et le son, ce genre de truc qui a lui même un ventilateur pour refroidire) > c'est 13 Watt http://www.ldlc.com/fiche/PB00210619.html, un lecteur blue ray nue que tu fou dans un PC, c'est une histoire de 5 watt.
Mais si tu veux chercher la petite bête, on peut aussi parler de l'écran de la Switch si tu veux...
Encore une fois, j'suis vraiment pas dans le même trop d’auto-persuasion que toi. Si on avait des éléments concrets et solides qui pourrait accréditer l'idée que la Switch serait proche d'une Xbox One, je ne me gênerais pas pour le dire et même faire un article bien détaillé arguments à l'appuis. Seulement, la réalité est tout autre malheureusement pour toi, puisque tu en attends visiblement trop.
A un moment, il vaut mieux regarder le concret plutôt que d'imaginer (ou de se baser sur des discours commerciaux "pute à clic")...
Tu parles de l'edram qui est dans l'apu ... La RAM de la xboxone c'est 65 go / s
Ensuite le lecteur blueray c'est dans le même ordre qu'un lecteur classique (moteur / laser), non pas 5watts.
La différence de consommation entre du 16 et du 20 nm, c'est 20 %.
L'écran est éteint à quai.
Enfin, comparez des cores graphiques de 2011 même gravé en 16 nm, à des cores graphiques de 2015 révisé en 20 nm (supposé, c'est peut-être aussi du 16) ne tient pas la route.
Le x86 à 1600 mhz et un ARM à 1050 mhz, c'est 3 voir 4 fois plus de consommation...
Enfin un smartphone est un smartphone, l'optimisation pour le jeux n'a rien à voir. Un smartphone n'a pas de ventilation, n'est épais que de moins d'un cm.
L'a9x d'apple fait 350 GFLOPS à 450 mhz.
La Switch est conçu pour délivrer un max de performance graphique à basse consommation, toute l'architecture est pensé pour la puissance au service des jeux vidéo (contrairement aux smartphone), dans le dock le GPU sera au minimum à 768 mhz mais pourrait être plus élevé à la sortie, voir par la suite via maj...
Enfin, même si j'en doute fortement comme toi, la Switch pourrait ne pas avoir 256 CUDA mais 320 voir 384 Cuba.
Bref, la Switch est une puissante portable qui pourra probablement offrir un rendu graphique proche de la xbox one... Capcom a réussi a porter re4 sur ps2 malgré que la gamecube était 2 fois plus puissante, grâce au travail, j'étais assez stupéfait du peu de sacrifice graphique, ce sera pareil pour la Switch.
Pour être Exact, c'est 68.3 Go/s pour la One sans l'Edram. Pour la PS4 c'est 176 Go/s en comparaison. L'Edram permet de compenser les 68.3 Go/s.
Ensuite le lecteur blueray c'est dans le même ordre qu'un lecteur classique (moteur / laser), non pas 5watts.
Faux, ou mauvaise fois parce que ça ne te plait pas, un lecteur Blue Ray n'est pas un simple bout de plastique avec un lecteur + lazer, il y a du composant "informatique" à l’intérieur pour pouvoir décoder le signal Blue Ray et l'envoyer sur la TV, il faut un minimum de puissance de calucul pour l'image et le son à "décoder".
Enfin, comparez des cores graphiques de 2011 même gravé en 16 nm, à des cores graphiques de 2015 révisé en 20 nm (supposé, c'est peut-être aussi du 16) ne tient pas la route.
Ha oui, et pourquoi donc ? 1 Tflops de 2012 reste 1 Tflops même en 2020.
Le x86 à 1600 mhz et un ARM à 1050 mhz, c'est 3 voir 4 fois plus de consommation...
D'une le Jaguar ne consomme absolument pas 3 voir 4 fois plus que du ARM, mais en plus il est plus puissant que le ARM A57. Dans les deux cas, on est sur du CPU peu énergivore.
Enfin un smartphone est un smartphone, l'optimisation pour le jeux n'a rien à voir. Un smartphone n'a pas de ventilation, n'est épais que de moins d'un cm.
L'a9x d'apple fait 350 GFLOPS à 450 mhz.
Oui et ? Je t'expliquais juste que l'idée que les smartphones vont dépasser les 1.4 voir 1.8 Tflops en 2017 c'est juste faux.
La Switch est conçu pour délivrer un max de performance graphique à basse consommation, toute l'architecture est pensé pour la puissance au service des jeux vidéo (contrairement aux smartphone), dans le dock le GPU sera au minimum à 768 mhz mais pourrait être plus élevé à la sortie, voir par la suite via maj...
Ouai et ? Si ils poussent le GPU à 1000 mhz, ça va changer quoi ? On aura toujours presque 3 x moins de puissance qu'une Xbox One S.
Enfin, même si j'en doute fortement comme toi, la Switch pourrait ne pas avoir 256 CUDA mais 320 voir 384 Cuba.
Il n'y a même pas de doute pour ma part. Mais là encore, tu en parles parce que tu espères, t'as au moins le mérite de douter et de ne pas y croire dure comme fer.
Bref, la Switch est une puissante portable qui pourra probablement offrir un rendu graphique proche de la xbox one... Capcom a réussi a porter re4 sur ps2 malgré que la gamecube était 2 fois plus puissante, grâce au travail, j'étais assez stupéfait du peu de sacrifice graphique, ce sera pareil pour la Switch.
Oui, c'est une portable puissante et non, on n'aura absolument pas des jeux au niveau d'un The Witcher 3, Gears 4, Forza Horizon 2 etc.
La Gamecube c'était 8 gflops, la PS2 c'était 6.2 Gflops, donc oui, RE4 tournait sur PS2 avec des concessions, et oui, les jeux multi Xbox One/PS4 pourraient tourner sur Switch, mais avec des concessions énormes, et on sera très loin du rendu Xbox One.
La batterie je l'use depuis plus d'un an et demi, elle est excellente pour la GPD XD je trouve, mais oui, j'espère que nintendo sera plus qualitatif. J'aurais aimé vraiment que la console, quitte à être plus lourde, soit plus costaud sur ce point, franchement, on est pas à 50 grammes près.
1 TFLOPS sur un gpu de 2011 fera beaucoup moins dans les benchmark qu'1 TFLOPS sur 1 gpu de 2015.
Comme un gpu Nvidia de 1 TFLOPS a les mêmes performance dans les benchmarks qu'un gpu amd de 1.3 à 1,4 TFLOPS.
A TFLOPS équivalent des GPU différents n'offre pas les même résultat dans les benchmark.
Le prochain processeurs apple devrait faire 820 GFLOPS mais éclatera probablement la xboxone dans la grande majorité des benchmark.
Avec les améliorations technologiques, les nouvelles architectures, il n'y a pas que les TFLOPS qui augmente, y'a également une meilleure utilisation de la puissance de calcul, l'API sert justement a mieux exploiter les améliorations des architectures (moins de calcul pour effectuer la même tâches)
Pour la Switch, c'est pareil...
Je trouve que tu as beaucoup de mal à appréhender la notion d'amélioration technologique. Ça se limite pas à augmenter les fréquences et réduire la gravure...