"@cyr
Après c’est un standard avec une vitesse minimale garantie plutôt qu’une vitesse maximale exigée
Toute carte respectant ce standard est compatible switch 2, sinon charge à Nintendo de le dire.
Sony eux le disent faut une vitesse minimale pour le SSD nvme, je crois 5/5.5 Gbps"
"On va attendre les retours joueurs, le coté ultra fourre tout qui veut tout etre sans vraie cohérence derrière m’avait bien refroidi
Je préfère un cadre plus posé, une belle histoire, le medieval, fantasy, steampunk, futuriste etc j’ai rien compris à leur DA, faut qu’ils arrêtent d’essayer de trop en faire
Mais bon… les blasés qui veulent qu’un jeu foire, lol au pire n’achetez pas hein, personne ne vous force :crazy:"
"@nicolasgourry elliott je l’ai trouvé trop brouillon techniquement sir la demo switch 2, un espèce de film flou et un peu d’aliasing ça et la difficulté trop conciliante ont suffit pour me repousser de l’achat"
"@potion2swag
On en reparle quand le jeu sortira et qu’il fera 60-120k en pic steam (ce sui est excellent pour un jeu gamepass).
Je pense ça marchera bien perso"
"@potion2swag
On en reparle quand le jeu sortira et qu’il fera 60-120 en pic steam (ce sui est excellent pour un jeu gamepass).
Je pense ça marchera bien perso"
"@51love
Le problème ici est que le modèle DLSS et les datasets utilisés lors de son entrainement sont chez Nvidia et c'est eux qui vont 'monopoliser' le "output" de ton rendu, alors certes tu as des paramètres (contrastes etc) mais le fait est que le design devient centralisé dans un llm externe au studio.
A moins que les studios pourront fournir leurs propres datasets d'entrainements, je ne vois pas comment c'est aussi deterministe que le CGI. Tu rentres tes paramètres et tu ne contrôles pas vraiment ce qui en sort, les versions de DLSS sortiront et ton rendu entres 2 périodes données ne sera plus vraiment le même, car tu ne contrôle pas l'essence du neural rendering: le modèle et ses data d'entrainements, les mises à jour, la direction prise pour modifier le modèle etc
C'est la grosse différence ici: Le contrôle, un LLM c'est très couteux à entrainer et c'est tout un métier (plutôt une armée de métiers)"
"@51love
Le problème ici est que le modèle DLSS et les datasets utilisés lors de son entrainement sont chez Nvidia et c'est eux qui vont 'monopoliser' le "output" de ton rendu, alors certes tu as des paramètres (contrastes etc) mais le fait est que le design devient centralisé dans un llm externe au studio.
A moins que les studios pourront fournir leurs propres datasets d'entrainements, je ne vois pas comment c'est aussi deterministe que le CGI. Tu rentres tes paramètres et tu ne contrôles pas vraiment ce qui en sort, les versions de DLSS sortiront et ton rendu ne sera plus le même donc potentiellement à 2 périodes données ton résultats n'est plus le même, car tu ne contrôle pas l'essence du neural rendering: le modèle et ses data d'entrainements
C'est la grosse différence ici: Le contrôle, un LLM c'est très couteux à entrainer et c'est tout un métier (plutôt une armée de métiers)"
"Très curieux de voir Pragmata
Pleins critiquent le fait que c'est devenus des franchises les AAA sans surprises, à voir si les gens répondront présent pour Pragmata"