En marge du CES 2016, NVIDIA vient de présenter son programme « GTX VR Ready ». Une liste de cartes graphiques qui pourront accompagner les premiers casques de VR.
Nouvelle tendance, nouvelle marque : voici le
« GeForce GTX VR Ready Program », un programme qui certifie les cartes graphiques compatibles avec la réalité virtuelle. Pour vous résumer cette longue liste de cartes graphiques, il vous faudra du matériel récent. Pour les
PC du bureau, au minimum une
GeForce GTX 970, Et pour les ordinateurs portables, une
GeForce GTX 980 au moins. Il faudra également s’équiper d’un
Core i5-4590 et de
8 Go de RAM,
Windows 7 SP1 et plus. Enfin, n’oublions pas de l’USB 3.0 et un connecteur HDMI 1.3.
Les constructeurs de casques, tels que Oculus et Steam VR, peuvent désormais rejoindre ce programme. Les écrans de ces casques demandent de la puissance, car ils intègrent deux dalles Full HD, ce qui demande d’avoir un rendu pour une définition de 2160 x 1200 pixels.
L' « Eye Buffer » nécessite encore plus de puissance.
En réalité, c’est même plus. Avec ce que l’on appelle le
“eye buffer”, il faut multiplier au moins par 1,4 la définition affichée, soit environ 3024 x 1680 pixels (ou encore 1512 x 1680 pixels pour chaque oeil). Ce « eye buffer » introduit par Oculus a pour objectif d’améliorer la qualité d’image, il s’agit d’un rendu de texture nécessaire pour avoir un rendu 3D stéréo. Cela est du aux lentilles courbées, il s’agit d’une correction de l’aberration chromatique. Ce n’est pas une étape facultative, même si les fabricants de GPU ont créé des outils pour minimiser la puissance de calcul nécessaire. À 90 Hz, cela requiert un matériel capable d’effectuer le rendu d’environ 457 millions pixels par seconde.
La comparaison avec les solutions mobiles ne tient pas.
Pour rappel, sur mobile, le
GPU NVIDIA Maxwell (256 coeurs) du NVIDIA Tegra X1 atteint une vitesse de 512 GFlops à 1000 MHz (FP32), 1024 GFlops en FP16. Chez Qualcomm, la solution Adreno 430 permet d’atteindre une vitesse de 320 GFlops. Pour comparaison, la GeForce GTX 970 possède une vitesse de 3494 GFlops (à ce niveau, on compte en TFlops). Comme vous pouvez le voir, il est encore très tôt pour imaginer vivre une expérience de réalité virtuelle en gaming sur mobile. En revanche, pour des utilisations moins gourmandes comme des films ou des « voyages » interactifs, la réalité virtuelle mobile est presque prête.
Quant au « cloud gaming » que l’on retrouve – par exemple – sur la Shield Android TV équipée d’un Tegra X1 avec le service GeForce Now (anciennement Grid), la petite boite Android est connectée à des serveurs NVIDIA (GRID K520) qui peuvent fournir une vitesse de 2448 GFlops, ce qui permet d’avoir un rendu en 1920 x 1080 pixels à 60 images par seconde. Nous sommes, encore une fois, loin d’avoir une puissance suffisante pour du gaming en réalité virtuelle sur mobile. Ce qui ne nous empêche pas d’imaginer regarder des films en VR sur son smartphone.
Fuck :/
En tout cas les perfs demandées sont très élevés comme on pouvait s'y attendre. Il va y avoir un monde entre la VR PC et mobile/console.
par contre je suis un poil trop juste avec ma GTX 960
J'ai un i7 870, je sais pas si ça passe..
perso je table sur compatibilité correcte avec i5/i7 haut de gamme sur les générations Sandy Bridge, Ivy Bridge, Haswell, Devyl Cannyon, Skylake, ainsi que les hexacores classe E (Haswell-E and Co)
un 4790k overclocké tient pas le 60FPS en 4K sur Crysis 3, mais ça devrait le faire pour la VR (sauf pour les casques StarVR qui eux ont des resolutions de malade)
Va falloir investir dans une CG je pense!
Bon en clair un minimum TITAN GTX X 3 comme la derniere fois , go ça va encore crée une fracture entre '' consoles - PC - VR '' go go go
Ce qui compte c'est que tu ailles vers ce qui te plait, personne en t'obliges à jouer en VR. Surtout que ça apporte structement rien à des jeux qui sont pas des FPS car tu perds largement le facteur d'immersion.
Ma carte 3D est VR Ready si on peut dire, mais c'est pas pour jouer à la VR que je l'ai prise.
Et puis qui sait si Nintendo ne va pas nous sortir une console NX qui en fait fait la VR au final ?
a la limite overclocké..
Sur cette vidéo, tu vois clairement que c'est le double GPU qui bride les fps et non pas le CPU.
https://www.youtube.com/watch?v=1e8Spkh3mSg
solidfisher Un petit OC et ça devrait passer :
https://www.youtube.com/watch?v=mSD40aoNRIc
nemesistavern J'ai joué à pas mal de jeu VR à la troisième personne, et l'immersion est bien plus grande que sur une écran classique.
Et juste comme ça, un i7 870 c'est 4 coeurs et 8 threads, un i5-4590 c'est 4 coeurs et 4 threads, autrement dit, j'ai mieux que ce qui est requis
http://ark.intel.com/fr/products/80815/Intel-Core-i5-4590-Processor-6M-Cache-up-to-3_70-GHz .
http://ark.intel.com/fr/products/41315/Intel-Core-i7-870-Processor-8M-Cache-2_93-GHz .
jonnaille Je peu pas OC à cause de mon BIOS de merde, qui empêche toute modif..
Pour les processeur, il n'y a pas que les Ghz et les Threads, il y a aussi l'architecture qui fait beaucoup. Si tu veux une comparaison de ton proco avec le i5 recommandé pour l'oculus rift :
http://cpu.userbenchmark.com/Compare/Intel-Core-i7-870-vs-Intel-Core-i5-4590/m961vs2604
Après je reste confiant, quand je vois les proco recommandé pour certain jeux, du genre i7 4790, alors qu'un i5 2500k suffit largement, voilà...
Tfaçon comme je te disais, j'ai pas vraiment le choix, avec mon chipset je pouvais pas espérer beaucoup mieux qu'un i7 870, et je peu te dire que je m'estime déjà bien heureux parce qu'avant je tournais sur un i5 650 (dual core) et la il n'y plus de comparaison possible, j'ai gagné 10/15 fps en moyenne sur tout mes jeux, avec une stabilité général qui n'a plus rien à voir avec avant !
Et bref, je verrais bien ce qu'il en est avec la VR
Ma CG c'est une GTX 770 OC.
Okey, vu ta carte graphique et ton processeur, ça reste équilibré. Par contre, l'oculus rift ne se lance pas si tu n'as pas eu moins une GTX 970, c'est un choix d'oculus, à voir si se sera contournable.
t'as tout faux
le 4790k bride en 4K justement (d'ailleurs dans ta video il est OC'ed à 4.7GHz) D'ailleurs le mec joue en SMAA LOw 1x (et sans Vsync en plus)
en comparaison:
http://www.youtube.com/watch?v=ZABt8bHgDHo
http://images.anandtech.com/doci/8426/1%20-%20Processors.png
un Hexacore (5930k ou 5820k) fera mieux car ils disposent de 6 cores et de + de lignes PCI Express (40 lignes pour le 5930k et 28 lignes pour le 5820k, contre seulement 16 pour le 4790k...ce qui permet de faire tourner deux cartes en respectivement 2x PCIE3.0 16x sur le 5930k et 1x PCIE3.0 16x + 1x PCIE3.0 8x)
(sur un 4790k dejà vu que t'as que 16 lignes PCIE3.0 , quand tu branches 2 cartes elles tournent chacune en PCIE 3.0 8x ce qui équivaut sensiblement à du PCIE 2.0 16x )
Tu perds quelques Frames avec l'histoire des lignes PCI express, mais c'est surtout le nombre de coeurs qui changent la charge (un i7 quadcore c'est 4 coeurs physiques et 4 autres émulés alors qu'un hexacore t'as dejà 6 coeurs réels en + des coeurs émulés)
Juste avoir un peu de marge, et je trouve ça dommage de ne pas finir d'équiper mon 4790k une bonne fois pour toute sachant qu'ensuite je ne suis pas prêt de change de PC.
Je change de machine pratiquement tous les 10 ans !
Ca correspond à quoi le pourcentage en dessous de la fréquence sur la vidéo ?
non mais tu comprends pas que meme avec une gtx 980ti, en mode PCIE 3.0 16x tu gagnes au mieux sur Crysis 3 quelque chose comme 3-4 FPS.
Là y a des écarts de 15 voir 20 FPS dans la video.
Ensuite les chiffres de FRAPS sur le CPU ne reflete pas vraiment la réalité sur le CPU: je peux te sortir des videos de Crysis 3 sur FX 8320E ou le CPU est loin des 50% d'utilisation et pourtant on voit clairement que le PC est limité par le CPU
http://www.youtube.com/watch?v=jYpSBLrhJaQ
pour terminer, je te confirme que les perfs du CPU jouent un role sur le nombre de FPS
https://youtu.be/wd1lHFgoVxA?t=48
(meme CG, memes presets, meme jeu, meme passage dans le jeu, meme CPU sauf pour la fréquence...)
Ton GPU affiche certes, mais ton CPU calcul toutes les lignes d'algorythmes avant.
http://www.ilemaths.net/img/forum_img/0497/forum_497143_1.png
/> (et si tu mets un AA plus élevé de type SSAA x 4 par rapport à du FXAA, les lignes à l'horizon étant beaucoup plus nettes en SSAA celà a un impact sur les performances du CPU.)
Le CPU joue un rôle dans les FPS oui, mais il ne joue pas un rôle dans la resolution. Tu passes un jeu du 1080p au 4K, le CPU n'est pas plus impacté en 4K qu'en 1080p. C'était bien ça le débat. Tu veux jouer en 144 fps en 1080p, il te faut un très bon CPU, plus costaux que si tu veux jouer en 4K à 60 fps. Le CPU est important pour les fps, moins pour la résolution.
J'ai comme l'impression que tu confond GPU et CPU. Ton dernier lien ne fonctionne pas, mais l'AA impacte le GPU, pas le CPU.
Ou tu vois que le PC est limité par le CPU ? Je vois un GPU usage à 100% (carte graphique). Elle le peut pas monter plus loin que 100%, c'est clairement la carte graphique qui est à son maximum. Aucun problème du coté du CPU.
Je le répète. Sur du mono GPU, passer du 1080p au 4K n'impacte pas plus le CPU, par contre, il impacte énormément le GPU. Je le sais puisque j'ai une GTX 980 ti couplé à un i7 4790k, j'ai un écran 4K et j'ai fait mes tests. Passer du 1080p au 4K ne change rien dans l'utilisation de mon CPU, par contre, ma carte graphique passe de 40% d'utilisation à 100%. Et quand ma carte graphique n'arrive pas à afficher les 60 fps, mon CPU baisse son pourcentage d'utilisation comparé au 1080p et à 60 fps.
t'es lourd.
fx 9590
http://youtu.be/fsw8C-Mw-9s?t=46
(tu les voies les ralentissements?)
vs
i7
http://www.youtube.com/watch?v=SVfeOZgzTuA
(et c'est la meme carte graphique)
c'est bien la preuve qu'un FX est trop léger pour Crysis3 (meme s'il permet d'y jouer dans des conditions convenables)
un GPU c'est bete. un GPU ça rempli des surfaces en fil de fer de textures, et de shadders.
qui lui dit qui doit remplir quoi ? le CPU.
qui doit calculer la distance qui sépare un point A d'un point B (qui est multipliée par 4 quand tu fais de la 4K) dans une arrete en fil de fer? le CPU.
je te donne un autre exemple
prends Zoe HD collection sur ps3 vs 360.
la 360 a un GPU plus puissant c'est admis.
la ps3 a un CPU plus puissant, c'est admis.
-Qui fait du 1080p MSAA 60FPS depuis sa mise a jour qui gere les 8 coeurs ?
-Qui fait du 720p FXAA 55 FPS?
bein c'est la ps3 dans le 1er cas et la 360 dans le 2eme.
et c'est pas une histoire de GPU...(puisque celui de la 360 est largement au dessus)
la version ps3 faisait tourner le jeu en 720p 30 FPS FXAA sans son patch 2.0 (pour l'utilisation multiple des coeurs) C'est l'apport des SPE (et des 100% d'utilisation du CPU) qui a permis le jump en resolution, en AA, et en Framerate.
(bienvenue dans le monde du CPU limited)
alors aprés tu me diras que je compare l'incomparable (ça reste a voir, pour moi les consoles ont toujours été des PC sans clavier)
mais ce que je t'illustre avec la video de Crysis 3 en 4K sur Hexacore et Quadcore AVEC LES MEMES CARTES GRAPHIQUES, ça prouve bien un truc: sur Cryengine, en 4K, un 4790k se cassera les dents alors qu'un 5820k planera à 60-80 FPS.
Maintenant viens pas me sortir ta liste de jeu qui consomme rien.
bien évidement qu'un 4790k fera tourner des jeux en 60FPS en 4K.
(moi aussi je peux aussi faire tourner Tetris en 4K avec sur un smartphone)
ce que je veux que tu comprenes c'est que "tout ne tournera pas à 60FPS en 4K sur 4790k "
de la meme maniere qu'un ZombiU tournera a 60FPS en 1080p sur PC avec un i5 et une HD7850, et sur ps4 à 30FPS (bien qu'ayant une HD7850) à cause de sa partie CPU trop molle.
http://www.youtube.com/watch?v=XojBiCuzgFk
Ton histoire de PS3 et Xbox 360 n'a rien à voir, la PS3 est pas programable de la même façon que la Xbox 360, elle est même difficile à maitriser. Les jeux multi sur PS3 étaient en inferior version pour cause de fainéantise des dév. La PS3 était capable de faire mieux que la Xbox 360 dans ses exclus. La PS3 avait une architecture très différente d'un PC, contrairement à la Xbox 360.
Zombi U c'est juste n'importe quoi comme exemple, Ubisoft qui choisis de mettre le jeu à 30 fps pour ne pas trop se fouler.
Tes vidéo de Crysis 3, il n'y a pas d'indication de fps en temps réel. Et on ne sait pas comment tourne la version fx 9590.
Pour conclure, si tu avais un peu de logique, la vidéo que tu m'avais filé plus haut, celle là : https://www.youtube.com/watch?v=jYpSBLrhJaQ Te permettrait de comprendre que dans le monde du PC, le CPU ne s'occupe pas de la partie graphique, ni de la résolution. Mais bon, je ne vois pas pourquoi je perd mon temps avec toi, tu m'as l'air sûr de toi, ou plutôt, tu souhaite avoir raison. Donc reste dans tes idées. Pour moi, c'est juste hallucinant de croire l'inverse d'une réalité connue par toute les personnes connaissant un minimum le fonctionnement d'un PC en jeu.
"Mais bon, je ne vois pas pourquoi je perd mon temps avec toi, tu m'as l'air sûr de toi, ou plutôt, tu souhaite avoir raison. Donc reste dans tes idées. Pour moi, c'est juste hallucinant de croire l'inverse d'une réalité connue par toute les personnes connaissant un minimum le fonctionnement d'un PC en jeu."
j'ai commencé a apprendre l'informatique et la programmation il y a exactement 30 ans sur DOS.
ma premiere leçon par mon prof' (étudiant en ingénierie informatique à l'époque) c'etait sur le traçage d'une ligne puis d'un algorythme par le CPU qui devait ensuite le rendre au GPU ... (avec des "If... GO TO..." )
Quand tu affiches une ligne, ton CPU doit d'abord la calculer.
si tu devais afficher une image 4K (je parle juste d'image, pas d'IA ni de déplacement, etc ) avec un CPU a 2 MHz, t'aurais beau avoir un tri SLI de GTX titan, ça te prendrait trois plombes.
Maintenant, je vais faire une capture vidéo d'un jeu tournant en 1080p et en 4K, avec un affichage en temps réel de l'utilisation GPU et CPU, et si avec ça, tu reste borné dans tes idées d'un autre temps, je ne pourrais plus rien pour toi. La vidéo sera posté quand elle sera uploadée, ça pourrait prendre du temps, mais ça arrive, ne t'inquiète pas.