suzukube > blog
    tags : tflops
    0
    Like
    Who likes this ?
    posted the 11/15/2020 at 07:26 PM by suzukube
    comments (29)
    minbox posted the 11/15/2020 at 07:29 PM
    marceaupilami posted the 11/15/2020 at 07:32 PM
    Et le calcul pour la ps5 ?
    C'est un calcul de Pro M ça !
    gemini posted the 11/15/2020 at 07:35 PM
    Les TFlops ne feront pas les meilleurs jeux de la prochaine gen' c'est le talent des développeurs derrière ces jeux comme c'est le cas depuis la création des JV ^^
    birmou posted the 11/15/2020 at 07:38 PM
    Quand je vois ta capacité de flood/putaclics Link49 me manque.
    suzukube posted the 11/15/2020 at 07:51 PM
    marceaupilami A la base j'étudiais la Xbox Series S, je ne voulais pas trop interférer avec Sony, mais voici les calculs :
    PS5 : (36 CU) x (64 / 0.5) x 2230 hz = 10 275 840 FLOPS FP32
    OU (car ca dépend de l'utilisation du CPU, le GPU peut drop en fréquence) : (36 CU) x (64 / 0.5) x 2000 hz = 9 216 000 FLOPS FP32

    C'est l'enveloppe thermique globale (GPU + CPU) qui gère tout ça, mais normalement elle devrait être quasi constamment en 2.23Ghz vu que la plupart des jeux sont GPU centric depuis l'air Xbox One / PS4 !

    birmou https://link49.home.blog/
    armando posted the 11/15/2020 at 07:51 PM
    shambala93 posted the 11/15/2020 at 07:54 PM
    birmou
    Je viens de voir son Twitter à link49, l’angoisse, il a l’air seul au monde.
    marceaupilami posted the 11/15/2020 at 08:23 PM
    suzukube Merci pour le calcul mais je rigais t'inquiètes
    marceaupilami posted the 11/15/2020 at 08:25 PM
    suzukube GPU centric c'est quoi ça ?
    mercure7 posted the 11/15/2020 at 08:37 PM
    Tflops, c'est le truc qui sert de débat quand la console n'a pas encore de jeu.
    alexkidd posted the 11/15/2020 at 08:45 PM
    unité de mesure du phallus des consoles
    bennj posted the 11/15/2020 at 09:05 PM
    suzukube Ah oui donc en fait tu fais juste du teasing pour ton article qui lui est bien plus complet que ca en fait. Tu devrais d'ailleurs le préciser car je suis tombé dans le piège sans avoir cliqué dessus vu que tu ne parles QUE du TFLOPS ici ce qui n'a aucun intérêt. Et je suis sur qu'une bonne partie ici ne vont pas cliquer dessus pensant que c'est l'intégralité qui est posté.

    Pourquoi tu ne reprends pas le titre de ton article et surtout que tu n'indiques pas que ce dernier à une analyse plus poussée ?
    suzukube posted the 11/15/2020 at 09:15 PM
    bennj J'avais juste envie de discuter sur ce que sont des TFLOPS ici, en retirant l'aspect Xbox Series S/X/One X car je ne suis pas sûr que ce soit le bon endroit pour en parler, beaucoup trop polémique ici, et je ne cherche pas du tout la guerre ou le conflit !

    Mon but est juste de tenter d'expliquer ce que c'est que des TFLOPS (en tous cas sur Gamekyo) d'un point de vu scientifique ou développeur, car ce n'est pas une valeur magique sorti par magie !

    D'ailleurs, sur Twitter, on est en train d'échanger sur le DLSS par rapport au DirectML et de pourquoi ce n'est pas utilisé dans les jeux actuels, mais aussi de l'intérêt des Tensor Core de NVidia non présent dans nos consoles actuelles, c'est vraiment très, très intéressant...

    Il se pourrait que les jeux sortant dans 12 à 24 mois aient un gap phénoménal, si tout ce que j'apprends actuellement est avéré (c'est à propos de la disponibilité de DirectX 12 et des dev kit de la Xbox Series).
    bennj posted the 11/15/2020 at 09:19 PM
    suzukube le problème c'est que prendre les TFLOP à part ca ne fait que relancer une guerre débile des chiffres bruts alors que comme tu le dis justement dans ton article il n'y a pas que ca à prendre en compte mais pas du tout du tout du tout même.

    Ce qui n'empêche que tu devrais indiquer que ton article est plus complet ca te ferait des lectures en plus.
    kikoo31 posted the 11/15/2020 at 09:24 PM
    suzukube t abuze mec à cause de ton truc imcomplet bennj a du faire un roman
    suzukube posted the 11/15/2020 at 09:27 PM
    marceaupilami Auparavant, à l'époque Xbox 360, les jeux utilisaient principalement le CPU (processeur principal) plutôt que le GPU. D'ailleurs, ça posait des soucis sur la Nintendo Wii U, qui, techniquement, était plus puissante que la Xbox 360, mais avec son CPU anémique (puisque la console était prévue pour se reposer principalement sur sur GPU) les portages de jeux Xbox 360 étaient compliqué.

    Pour résumer : Pour avoir un très bon rendu graphique de nos jours, le CPU n'a quasi pas d'importance (même si ça impacte les FPS), seul le GPU est vraiment important :

    Sur un PC, mieux vaut avoir un Core i3 + une RTX 3080 qu'un Core i9 + une GTX 1060 par exemple ^^ ! C'est un cas extrême, mais j'espère m'être bien exprimé à ce niveau.

    bennj C'est gentil, je vais rajouter une petite phrase en fin d'article. Après c'est vraiment un long article (je te remercie de l'avoir lu d'ailleurs) qui est issu d'une réflexion et analyse pour ceux qui s'intéressent vraiment à ce sujet.

    Et encore, je ne me suis même pas encore penché sur les API de Sony sur PS5, car elles sont assez obscures, c'est dur d'avoir des infos dessus. Mais rien que sur l'implémentation du Ray Tracing, qui peut visiblement être activé à volonté selon les surface dans Spiderman (les vitres des voitures utilisent du Cube Mapping classique, contre du Ray Tracing sur les vitres des bâtiments), on pourrait avoir de grosses surprises...

    D'ailleurs, ceux qui pensent que la PS5 fait "9.2 Tflops" risquent d'avoir des surprises, la console est tout à fait capable de tenir ses "10.3 Tflops" sur la durée - simplement la fréquence du CPU est limitée dans ce cas ! C'est proche de la technologie Smartshift sur les processeur AMD d'ordinateur portable, ça permet d'avoir des rendus vidéos INSANE (les logiciels de montage sont devenus GPU centrics)
    suzukube posted the 11/15/2020 at 09:32 PM
    kikoo31 Ah la la j'avais juste peur que ça parte dans le "La Xbox Series S c'est de la merde achetez une Xbox Series X pour 200 € de plus merde". Mais surtout, ça m'embête de voir ces TFLOPS écrits partout à tord et à travers, avec des conversions... Hasardeuses.

    Mais c'est vrai que le cas Xbox One X / Xbox Series S est vraiment inédit dans l'univers des consoles, et complexe à comprendre ^^ ! Et je ne parle même pas des jeux CPU limited - pour faire du 120 fps, le jaguar serait un gros goulet d'étranglement, que n'a plus la Xbox Series S. Le processeur (CPU) de la Xbox One X est seulement 30% plus rapide que celui de la One X, ça la met définitivement à l'écart pour faire du 120 fps par exemple ^^ !
    suzukube posted the 11/15/2020 at 09:35 PM
    marceaupilami D'ailleurs, techniquement, on dit GPU-Bound et CPU-Bound, mais je trouvais le terme "GPU Centric" plus compréhensible ^^ ! https://www.wepc.com/tips/cpu-intensive-games/
    51love posted the 11/15/2020 at 09:39 PM
    gemini ça c'est sur mais c'est un autre sujet.

    suzukube marrant ton post car suite à la révélation de RDNA2 je me suis tâté de faire un article technique pour parler des différences fondamentales avec la dernière architecture RTX Nvidia mais je me suis dit que ça allait intéresser personne

    notamment comprendre pourquoi dans certains scénarios sur un seul cycle une AMD 6800xt peut exécuter plus d'opération qu'une RTX 3080. Pourtant la 3080 peut monter jusqu'à 35 Tflops là où la 6800xt culmine à 22 maximum

    Et pourtant c'est bel et bien vrai.

    Tout ça en ne parlant que de puissance brute sur les shader cores, il est pas question ici de RT ou DLSS sur des cœurs dédiés.

    Et aussi comment Nvidia se donne une plus grande flexibilité dans sa façon d'optimiser les calculs, compensant ainsi en parti son retard dans certains cas alors que dans d'autres la 6800xt se fait exploser de quasi 50%

    Pour la formule Tflops je la trouve plus compréhensible en faisant *2 plutôt que /0.5 étant donné qu'il y a bien 2 opérations FP32 possible dans chaque cœur
    suzukube posted the 11/15/2020 at 09:42 PM
    51love C'est ça ! Mais je voulais rester le plus proche possible de la formule originale qui dit bien "Nombre d'opération par CYCLE"

    Chaque cœur (et encore c'est compliqué car les coeurs CU peuvent faire un nombre énorme de calculs) peut doubler son nombre de calcul puisque basé sur une architecture 64bits, et peuvent donc, sur des calculs 32 bits, en faire 2 à chaque Cycles !

    Mais en mettant (64 opération x 2 / 1 Cycle) je ne sais pas si c'est très clair là c'est 64 opération / 0.5 Cycles, donc avec les Hz, à chaque "cycle", on peut faire 2 opérations.

    Techniquement, j'ai lu que les Tenso Core sont ultra efficaces car ils sont capable de faire des calculs en 4bits, je ne vais même pas m'amuser à compter le nombre de TFLOPS FP4 que ça fait
    suzukube posted the 11/15/2020 at 09:46 PM
    51love Ca m'aurait intéressé, je suis très calé en technique, mais je lis plus des revus d'ingénieurs ou de développeurs que des chamailleries de joueurs qui veulent la console la plus puissante !

    Actuellement, j'étudie la puce M1 d'Apple. J'ai vraiment hâte de voir les benchmark dessus, Apple est passé du PowerPC, à Intel, et avec la puissance du monde mobile, ils font revenir ARM sur le devant de la scène avec le M1...

    Apple montre des résultats supérieur à un core i9 sur un Single core (ah ah ah ce qui ne veut rien dire ) mais hâte de voir comment ça se passe en vrai.

    Je pense que le M1 est en fait un 4 core + 4 core low voltage, mais que des fonctions spécifiques (sécurité, cryptage notamment) sont calculé par des core spécifiques (comme le décodage vidéo par la partie GPU).

    Au final, vu le résultat sur l'iPad, je suis confiant sur les logiciels APPLE interne, mais je demande à voir sur la suite Adobe par exemple (ou celle d'Office)
    51love posted the 11/15/2020 at 10:21 PM
    suzukube Nvidia a remplacer les F16 par des F32 sur les Rtx 3000. Ce qui veut dire que tu peux faire 4 calculs F32 au lieu de 2, ça revient à doubler le nombre de cœur F32 et donc voilà pourquoi une 3080 peut culminer à 35 tflops, ce n'est pas du bullshit du tout.

    L'intérêt c'est que peu importe si tu as énormément d opérations F16 ou F32 sur un cycle tu peux remplir tous tes cœurs car tu peux faire un calcul FP16 dans une unité FP32 mais pas l'inverse. Ça donne donc une grande flexibilité dans les types opérations à exécuter surtout qu'il me semble que généralement on fait bcp plus de F32. Leur choix a donc du sens mais ...

    Un GPU AMD à 20 tflops pourra faire jusqu'à 40 tflops en F16 s'il n'a que ça à faire en utilisant les 2 F16 et les 2 F32 à disposition dans chaque cœur. Alors qu'un GPU RTX 3000 à 30 tflops ne pourra aller que jusqu'à 30 Tflops F16.

    On comprend donc que plus il y a de F16 à exécuter moins l'architecture nvidia est avantagé.

    Par exemple la 3080 si elle doit faire moitié F16 et l'autre moitié f32 sur un cycle. Durant une seconde elle aura donc fait 35/2 = 17.5 tflops f32 et 17.5 tflops F16.

    Alors que le GPU AMD peut faire 22 tflops F32 et autant en F16

    Par contre si le but était de calculer 30 Tflops F32 et 5 Tflops F16 le GPU Nvidia peut maintenant le faire sur un seul cycle et non plus sur 2 comme chez AMD.

    C'est de la pure optimisation bas niveau, il n'y a plus besoin d'attendre le cycle suivant même si des cœurs ne bossent pas
    marceaupilami posted the 11/15/2020 at 10:41 PM
    suzukube Merci de ta réponse
    Tu dis que dans 12 à 24 mois il se peut que l'on est un gap phénoménal ! Tu peux développer ? Et cela concerne les consoles nouvelle génération ? Ou Microsoft en particulier ?
    C'est comme le SSD et la puce de decompression quand on comprends comment ça fonctionne c'est insane la bande passante qui en resulte !
    suzukube posted the 11/15/2020 at 10:53 PM
    marceaupilami A prendre avec des pincettes. Mais les jeux actuels n'auraient pas été développé avec DirectX 12 Ultimate. Visiblement, ces kits de développement incluant cette version de DirectX aurait été distribuée en juin 2020.

    Qu'est-ce que ça change ? Ben en fait, le DIRECTML. Je simplifie énormément, mais disons que c'est assez similaire à du DLSS, c'est du Machine Learning, ça permet de dégager des ressources au lieu de target de la 4K native.

    Pourquoi je dis 12 à 24 mois ? Si des jeux sont développé sur ces nouveaux kits de développement (ou mis à jour en cours de dev pour tourner sur ces nouveaux kits), j'estime que l'on verra les premiers jeux avec ces optimisations dans 24 mois, le cycle de développement d'un jeu (encore que on est souvent sur du 3 ans). En étant optimiste, je me dis que certains jeux seront peut être visible l'an prochain avec ces technologies (Halo Infinite ?).

    DirectML concerne Microsoft en général (car c'est par rapport à DirectX12) dans le sens où à la fois les consoles XBOX et les ordinateurs sous WINDOWS 10 en bénéficieront. Imagine virtuellement un DLSS mais n'ayant pas besoin de Tensor Core ^^ !

    La seule question, c'est de savoir si ça pourrait être bénéfique à la PS5, et là, je ne pense pas que ce soit possible car la PS5 ne fait pas tourner DirectX 12. Non pas qu'elle en est pas capable matériellement, juste une histoire de licence - DirectX = Microsoft. Par contre, je ne dis pas que Sony ne pourra pas (ou n'a pas déjà) créé des outils similaires !

    Pourquoi je parle de Gap ?

    Et bien sur un jeu comme Watch Dogs Legion, avec du DLSS + RT, tu peux atteindre du 30 fps en ULTRA 4K + Ray Tracing sur une simple RTX 2060, la moins puissante des cartes RTX de NVIDIA, et dépasser le rendu visuel d'une Xbox Series X... Le DLSS (Et DirectML sur le papier), c'est juste un moyen incroyable d'optimiser la puissance de nos consoles ! https://youtu.be/_BN_wjO2M9Q?t=984 .

    D'ailleurs, j'étais persuadé que la Xbox Series S ferait le même rendu que la Xbox Series X, avec un rendu interne divisé par 2, et du Machine Learning (DLSS quoi) pour atteindre la 4K... Mais c'est vrai que ça aurait peut être un peu trop concurrencé la XSX !
    marceaupilami posted the 11/15/2020 at 11:09 PM
    suzukube Merci pour toutes ces explications mais sans parler du DLSS et de machine learning c'est un peu pareil du côté de chez Sony leur dernier kit de développement date de 2020 et aucun jeu n'utilise l'architecture de la PS5 uniquement des jeux qui éradique presque les temps de chargement mais ça ce n'est que la première étape ensuite vient le streaming de données comme l'a pu le démontrer la démo de l'Unreal Engine 5 !

    Je suis d'ailleurs étonné que Sony n'est pas développé une techno du style Direct ML alors qu'avec la PS4 pro ils avaient fais du bon boulot avec les algorithmes de checkboard rendering !
    Et la rien ! Ils se sont dit ah ! Notre hardware est assez lourd pour encaisser du 4k natif avec Ray Tracing ! Pas besoin d'ameliorer nos algorithmes de checkboard rendering ou de développer un nouvelle techno du genre ouch c'est de l'histoire ancienne la ps4 pro !
    J'en doute fort !
    marceaupilami posted the 11/15/2020 at 11:15 PM
    J'espère que les deux constructeurs nous réservent de belles surprises car à l'heure actuelle à part 1 ou 2 jeux vraiment magnifique, Je n'ai pas vu de gap Next Gen hormis la démo Unreal Engine 5.

    J'espère vraiment
    suzukube posted the 11/15/2020 at 11:52 PM
    marceaupilami Ah ah ! Je ne connais pas grand monde travaillant avec les kits PS5, c'est pour cela que je m'abstient de commenter dessus. Le portage de Yakuza 7 sur PS5 pourrait être du à un kit de développement donné tardivement à SEGA. C'est ce qu'il se dit dans le milieu (en plus, Microsoft aurait aidé au portage Xbox Series + Prise en charge de la com en occident pour le jeu).

    Je ne doute pas du gap existant, et je ne doute pas de la puissance des machines, mais je crois qu'elles sortent un peu trop tôt (dans le sens des jeux pas prêts) et le COVID a du jouer sur le développement global.

    Pour Sony, je suis quasi sûr qu'ils ont une technologie similaire. Ou au moins du Checkboard Rendering ! c'est juste que je ne les connais pas. Je me pencherais plus sur la PS5 quand je l'aurais !

    Bon, après, dans l'histoire des consoles, on a souvent 1 ou 2 titres day one, donc le lancement est +/- normal côté Sony... Côté Xbox c'est pas très... habituel disons (mettre en avant les jeux de la Gen précédente). Mais pourquoi pas. C'est 2 philosophies différentes !

    D'ailleurs, Spencer dit que ce ne sont pas les jeux qui font le ventes day one, mais le stock de consoles. Donc il faut produire le plus de console possible pour satisfaire la demande. Je trouvais ce raisonnement bizarre, mais les chiffres ne lui donne pas tord : les ventes de la Xbox Series X sont limités par les stocks, et non par la non-présence de Halo Infinite !
    lexiz posted the 11/16/2020 at 02:08 AM
    Ouai moi je les appelle les payetonflops
    marceaupilami posted the 11/16/2020 at 07:53 AM
    suzukube Je pense que nous une génération de console bien né !

    Je veux dire par la, qu'au niveau composant hardware nous n'avons pas de maillon faible des GPU RDNA top revenu dans la course (avec Nvidia) des CPU top pareil architecture ZEN 2 revenu de loin comparé au Jaguar, des SSD ultra rapide avec l'architecture audacieuse qui va avec !
    Sans rentrer dans les détails nous somme arrivé a une génération ou la limitation hardware est le dernier composant avant l'affichage soit le GPU et ça c'est excellent ! Rien ne le limite ! CPU, SSD, RAM et architecture sans goulot d'étranglement !

    Rien à voir avec la génération PS4 et One ou déja le vieux HDD la ou est stocké le jeux était un dinosaure ! Pas loin de 1 min pour charger la RAM
    Donc 8 Go de ram pour presque 1 min de jeux !
    Sans parler de l'architecture ultra conventionnelle pour une console et leurs CPU à la ramasse !

    Au final ces consoles sont bien nées il ne leur manque plus qu'un équivalent DLSS ! et apparemment c'est en bonne route du coté de Microsoft avec leur Direct ML !

    Petit article d'Eurogamer qui partage cet enthousiasme vis à vis des prochaines consoles !

    https://www.eurogamer.net/articles/2020-11-14-ps5-and-xbox-present-strikingly-different-visions-and-both-bring-big-positives-for-games