Les TFLOPS, sont tout simplement le nombre d’opérations en virgule flottante par seconde. En anglais, on dit floating-point operations per second ou… FLOPS. Ce sont en fait nombre d’instructions que la console peut calculer durant un cycle (d’où ces fameux GHZ qui sont des fréquences). Et attention : on peut avoir, couramment, des instructions sur 32 bits ou sur 64 bits ! Mais sur nos consoles, les instructions ne se font que sur 32 bits. Cela aura son importance dans la suite de nos calculs… Car oui, on va calculer nous même la puissance des différents GPU des Xbox, et pour cela, on va utiliser la formule suivante :
FLOPS = Cœurs x (FLOP / Cycle) x Fréquence
Chez AMD, chaque CU est en fait capable de calculer 64 Shaders… Et chaque Shader peut calculer 2 opérations 32 bits dans un cycle ^^ ! Dit autrement, chaque opération n’utilise que la moitié d’un cycle.
Sur une Xbox Series S, on a donc :
(20 CU) x (64 / 0.5) x 1 565 hz = 4 006 400 FLOPS = 4 006 GFLOPS = 4 TFLOPS FP32
Sur une Xbox One X, on a :
(40 CU) x (64 / 0.5) x 1 172 hz = 6 000 640 FLOPS = 6 000 GFLOPS = 6 TFLOPS FP32
Pour le fun, sur une Xbox Series X, on a :
52 CU x (64 / 0.5) x 1825 hz = 12 147 200 FLOPS = 12 147 GFLOPS = 12,15 TFLOPS FP32
On précisera qu’on ne parle ici que de calcul 32 bits (donc techniquement, c’est 4 TFLOPS FP32 pour la Xbox Series S), en 64 bits, les résultats seraient différents).
Bref, vous l’aurez compris : La Xbox Series S est capable d’effectuer moins d’opérations par seconde que la Xbox One X. Mais est-elle pour autant moins puissante que la Xbox One X ? C'est bien là le cœur de la question, qui torture beaucoup d'esprits à travers la toile...
[NDLR : Extrait d'un article que j'ai écris comparant la Xbox Series S à la Xbox One X en terme de puissance, dans une démarche didactique, que vous pouvez retrouver dans la source ci-dessous]
C'est un calcul de Pro M ça !
PS5 : (36 CU) x (64 / 0.5) x 2230 hz = 10 275 840 FLOPS FP32
OU (car ca dépend de l'utilisation du CPU, le GPU peut drop en fréquence) : (36 CU) x (64 / 0.5) x 2000 hz = 9 216 000 FLOPS FP32
C'est l'enveloppe thermique globale (GPU + CPU) qui gère tout ça, mais normalement elle devrait être quasi constamment en 2.23Ghz vu que la plupart des jeux sont GPU centric depuis l'air Xbox One / PS4
birmou https://link49.home.blog/
Je viens de voir son Twitter à link49, l’angoisse, il a l’air seul au monde.
Pourquoi tu ne reprends pas le titre de ton article et surtout que tu n'indiques pas que ce dernier à une analyse plus poussée ?
Mon but est juste de tenter d'expliquer ce que c'est que des TFLOPS (en tous cas sur Gamekyo) d'un point de vu scientifique ou développeur, car ce n'est pas une valeur magique sorti par magie
D'ailleurs, sur Twitter, on est en train d'échanger sur le DLSS par rapport au DirectML et de pourquoi ce n'est pas utilisé dans les jeux actuels, mais aussi de l'intérêt des Tensor Core de NVidia non présent dans nos consoles actuelles, c'est vraiment très, très intéressant...
Il se pourrait que les jeux sortant dans 12 à 24 mois aient un gap phénoménal, si tout ce que j'apprends actuellement est avéré (c'est à propos de la disponibilité de DirectX 12 et des dev kit de la Xbox Series).
Ce qui n'empêche que tu devrais indiquer que ton article est plus complet ca te ferait des lectures en plus.
Pour résumer : Pour avoir un très bon rendu graphique de nos jours, le CPU n'a quasi pas d'importance (même si ça impacte les FPS), seul le GPU est vraiment important :
Sur un PC, mieux vaut avoir un Core i3 + une RTX 3080 qu'un Core i9 + une GTX 1060 par exemple ^^ ! C'est un cas extrême, mais j'espère m'être bien exprimé à ce niveau.
bennj C'est gentil, je vais rajouter une petite phrase en fin d'article. Après c'est vraiment un long article (je te remercie de l'avoir lu d'ailleurs) qui est issu d'une réflexion et analyse pour ceux qui s'intéressent vraiment à ce sujet.
Et encore, je ne me suis même pas encore penché sur les API de Sony sur PS5, car elles sont assez obscures, c'est dur d'avoir des infos dessus. Mais rien que sur l'implémentation du Ray Tracing, qui peut visiblement être activé à volonté selon les surface dans Spiderman (les vitres des voitures utilisent du Cube Mapping classique, contre du Ray Tracing sur les vitres des bâtiments), on pourrait avoir de grosses surprises...
D'ailleurs, ceux qui pensent que la PS5 fait "9.2 Tflops" risquent d'avoir des surprises, la console est tout à fait capable de tenir ses "10.3 Tflops" sur la durée - simplement la fréquence du CPU est limitée dans ce cas
Mais c'est vrai que le cas Xbox One X / Xbox Series S est vraiment inédit dans l'univers des consoles, et complexe à comprendre ^^ ! Et je ne parle même pas des jeux CPU limited - pour faire du 120 fps, le jaguar serait un gros goulet d'étranglement, que n'a plus la Xbox Series S. Le processeur (CPU) de la Xbox One X est seulement 30% plus rapide que celui de la One X, ça la met définitivement à l'écart pour faire du 120 fps par exemple ^^ !
suzukube marrant ton post car suite à la révélation de RDNA2 je me suis tâté de faire un article technique pour parler des différences fondamentales avec la dernière architecture RTX Nvidia mais je me suis dit que ça allait intéresser personne
notamment comprendre pourquoi dans certains scénarios sur un seul cycle une AMD 6800xt peut exécuter plus d'opération qu'une RTX 3080. Pourtant la 3080 peut monter jusqu'à 35 Tflops là où la 6800xt culmine à 22 maximum
Et pourtant c'est bel et bien vrai.
Tout ça en ne parlant que de puissance brute sur les shader cores, il est pas question ici de RT ou DLSS sur des cœurs dédiés.
Et aussi comment Nvidia se donne une plus grande flexibilité dans sa façon d'optimiser les calculs, compensant ainsi en parti son retard dans certains cas alors que dans d'autres la 6800xt se fait exploser de quasi 50%
Pour la formule Tflops je la trouve plus compréhensible en faisant *2 plutôt que /0.5 étant donné qu'il y a bien 2 opérations FP32 possible dans chaque cœur
Chaque cœur (et encore c'est compliqué car les coeurs CU peuvent faire un nombre énorme de calculs) peut doubler son nombre de calcul puisque basé sur une architecture 64bits, et peuvent donc, sur des calculs 32 bits, en faire 2 à chaque Cycles !
Mais en mettant (64 opération x 2 / 1 Cycle) je ne sais pas si c'est très clair là c'est 64 opération / 0.5 Cycles, donc avec les Hz, à chaque "cycle", on peut faire 2 opérations.
Techniquement, j'ai lu que les Tenso Core sont ultra efficaces car ils sont capable de faire des calculs en 4bits, je ne vais même pas m'amuser à compter le nombre de TFLOPS FP4 que ça fait
Actuellement, j'étudie la puce M1 d'Apple. J'ai vraiment hâte de voir les benchmark dessus, Apple est passé du PowerPC, à Intel, et avec la puissance du monde mobile, ils font revenir ARM sur le devant de la scène avec le M1...
Apple montre des résultats supérieur à un core i9 sur un Single core (ah ah ah ce qui ne veut rien dire
Je pense que le M1 est en fait un 4 core + 4 core low voltage, mais que des fonctions spécifiques (sécurité, cryptage notamment) sont calculé par des core spécifiques (comme le décodage vidéo par la partie GPU).
Au final, vu le résultat sur l'iPad, je suis confiant sur les logiciels APPLE interne, mais je demande à voir sur la suite Adobe par exemple (ou celle d'Office)
L'intérêt c'est que peu importe si tu as énormément d opérations F16 ou F32 sur un cycle tu peux remplir tous tes cœurs car tu peux faire un calcul FP16 dans une unité FP32 mais pas l'inverse. Ça donne donc une grande flexibilité dans les types opérations à exécuter surtout qu'il me semble que généralement on fait bcp plus de F32. Leur choix a donc du sens mais ...
Un GPU AMD à 20 tflops pourra faire jusqu'à 40 tflops en F16 s'il n'a que ça à faire en utilisant les 2 F16 et les 2 F32 à disposition dans chaque cœur. Alors qu'un GPU RTX 3000 à 30 tflops ne pourra aller que jusqu'à 30 Tflops F16.
On comprend donc que plus il y a de F16 à exécuter moins l'architecture nvidia est avantagé.
Par exemple la 3080 si elle doit faire moitié F16 et l'autre moitié f32 sur un cycle. Durant une seconde elle aura donc fait 35/2 = 17.5 tflops f32 et 17.5 tflops F16.
Alors que le GPU AMD peut faire 22 tflops F32 et autant en F16
Par contre si le but était de calculer 30 Tflops F32 et 5 Tflops F16 le GPU Nvidia peut maintenant le faire sur un seul cycle et non plus sur 2 comme chez AMD.
C'est de la pure optimisation bas niveau, il n'y a plus besoin d'attendre le cycle suivant même si des cœurs ne bossent pas
Tu dis que dans 12 à 24 mois il se peut que l'on est un gap phénoménal ! Tu peux développer ? Et cela concerne les consoles nouvelle génération ? Ou Microsoft en particulier ?
C'est comme le SSD et la puce de decompression quand on comprends comment ça fonctionne c'est insane la bande passante qui en resulte !
Qu'est-ce que ça change ? Ben en fait, le DIRECTML. Je simplifie énormément, mais disons que c'est assez similaire à du DLSS, c'est du Machine Learning, ça permet de dégager des ressources au lieu de target de la 4K native.
Pourquoi je dis 12 à 24 mois ? Si des jeux sont développé sur ces nouveaux kits de développement (ou mis à jour en cours de dev pour tourner sur ces nouveaux kits), j'estime que l'on verra les premiers jeux avec ces optimisations dans 24 mois, le cycle de développement d'un jeu (encore que on est souvent sur du 3 ans). En étant optimiste, je me dis que certains jeux seront peut être visible l'an prochain avec ces technologies (Halo Infinite ?).
DirectML concerne Microsoft en général (car c'est par rapport à DirectX12) dans le sens où à la fois les consoles XBOX et les ordinateurs sous WINDOWS 10 en bénéficieront. Imagine virtuellement un DLSS mais n'ayant pas besoin de Tensor Core ^^ !
La seule question, c'est de savoir si ça pourrait être bénéfique à la PS5, et là, je ne pense pas que ce soit possible car la PS5 ne fait pas tourner DirectX 12. Non pas qu'elle en est pas capable matériellement, juste une histoire de licence - DirectX = Microsoft. Par contre, je ne dis pas que Sony ne pourra pas (ou n'a pas déjà) créé des outils similaires
Pourquoi je parle de Gap ?
Et bien sur un jeu comme Watch Dogs Legion, avec du DLSS + RT, tu peux atteindre du 30 fps en ULTRA 4K + Ray Tracing sur une simple RTX 2060, la moins puissante des cartes RTX de NVIDIA, et dépasser le rendu visuel d'une Xbox Series X... Le DLSS (Et DirectML sur le papier), c'est juste un moyen incroyable d'optimiser la puissance de nos consoles ! https://youtu.be/_BN_wjO2M9Q?t=984 .
D'ailleurs, j'étais persuadé que la Xbox Series S ferait le même rendu que la Xbox Series X, avec un rendu interne divisé par 2, et du Machine Learning (DLSS quoi) pour atteindre la 4K... Mais c'est vrai que ça aurait peut être un peu trop concurrencé la XSX
Je suis d'ailleurs étonné que Sony n'est pas développé une techno du style Direct ML alors qu'avec la PS4 pro ils avaient fais du bon boulot avec les algorithmes de checkboard rendering !
Et la rien ! Ils se sont dit ah ! Notre hardware est assez lourd pour encaisser du 4k natif avec Ray Tracing ! Pas besoin d'ameliorer nos algorithmes de checkboard rendering ou de développer un nouvelle techno du genre ouch c'est de l'histoire ancienne la ps4 pro !
J'en doute fort !
J'espère vraiment
Je ne doute pas du gap existant, et je ne doute pas de la puissance des machines, mais je crois qu'elles sortent un peu trop tôt (dans le sens des jeux pas prêts) et le COVID a du jouer sur le développement global.
Pour Sony, je suis quasi sûr qu'ils ont une technologie similaire. Ou au moins du Checkboard Rendering ! c'est juste que je ne les connais pas. Je me pencherais plus sur la PS5 quand je l'aurais
Bon, après, dans l'histoire des consoles, on a souvent 1 ou 2 titres day one, donc le lancement est +/- normal côté Sony... Côté Xbox c'est pas très... habituel disons (mettre en avant les jeux de la Gen précédente). Mais pourquoi pas. C'est 2 philosophies différentes
D'ailleurs, Spencer dit que ce ne sont pas les jeux qui font le ventes day one, mais le stock de consoles. Donc il faut produire le plus de console possible pour satisfaire la demande. Je trouvais ce raisonnement bizarre, mais les chiffres ne lui donne pas tord : les ventes de la Xbox Series X sont limités par les stocks, et non par la non-présence de Halo Infinite
Je veux dire par la, qu'au niveau composant hardware nous n'avons pas de maillon faible des GPU RDNA top revenu dans la course (avec Nvidia) des CPU top pareil architecture ZEN 2 revenu de loin comparé au Jaguar, des SSD ultra rapide avec l'architecture audacieuse qui va avec !
Sans rentrer dans les détails nous somme arrivé a une génération ou la limitation hardware est le dernier composant avant l'affichage soit le GPU et ça c'est excellent ! Rien ne le limite ! CPU, SSD, RAM et architecture sans goulot d'étranglement !
Rien à voir avec la génération PS4 et One ou déja le vieux HDD la ou est stocké le jeux était un dinosaure ! Pas loin de 1 min pour charger la RAM
Donc 8 Go de ram pour presque 1 min de jeux !
Sans parler de l'architecture ultra conventionnelle pour une console et leurs CPU à la ramasse !
Au final ces consoles sont bien nées il ne leur manque plus qu'un équivalent DLSS ! et apparemment c'est en bonne route du coté de Microsoft avec leur Direct ML !
Petit article d'Eurogamer qui partage cet enthousiasme vis à vis des prochaines consoles !
https://www.eurogamer.net/articles/2020-11-14-ps5-and-xbox-present-strikingly-different-visions-and-both-bring-big-positives-for-games