ROCKSTAR GAMES
profile
NVIDIA
6
name : NVIDIA
leonr4 > blog
    tags :
    0
    Like
    Who likes this ?
    posted the 01/04/2016 at 09:04 PM by leonr4
    comments (36)
    apollokami posted the 01/04/2016 at 09:10 PM
    Il faudra également s’équiper d’un Core i5-4590 (au moins)

    Fuck :/
    En tout cas les perfs demandées sont très élevés comme on pouvait s'y attendre. Il va y avoir un monde entre la VR PC et mobile/console.
    leonr4 posted the 01/04/2016 at 09:12 PM
    apollokami Tu te doutes bien quand ils disent ça c'est histoire d’être tranquille ! perso j'en suis persuadé que ça tournera nickel avec des sandy ou ivy bridge
    thomass2 posted the 01/04/2016 at 09:12 PM
    Je viens juste de me prendre un core i5 4690 ^^

    par contre je suis un poil trop juste avec ma GTX 960
    solidfisher posted the 01/04/2016 at 09:40 PM
    Il faudra également s’équiper d’un Core i5-4590

    J'ai un i7 870, je sais pas si ça passe..
    thomass2 posted the 01/04/2016 at 09:43 PM
    solidfisher hum... non. ^^
    psychoroid posted the 01/04/2016 at 09:51 PM
    la fréquence va etre un element determinant
    perso je table sur compatibilité correcte avec i5/i7 haut de gamme sur les générations Sandy Bridge, Ivy Bridge, Haswell, Devyl Cannyon, Skylake, ainsi que les hexacores classe E (Haswell-E and Co)

    un 4790k overclocké tient pas le 60FPS en 4K sur Crysis 3, mais ça devrait le faire pour la VR (sauf pour les casques StarVR qui eux ont des resolutions de malade)
    furtifdor posted the 01/04/2016 at 09:58 PM
    J'ai NVIDIA GeForce GTX 770(1x) et un intel core i5-4690k.....
    Va falloir investir dans une CG je pense!
    xxxxxxxxxxxxxxxxx posted the 01/04/2016 at 09:58 PM
    bon sinon moi je suis sur '' SUPER NINTENDO '' ça iras je pense , non ?

    Bon en clair un minimum TITAN GTX X 3 comme la derniere fois , go ça va encore crée une fracture entre '' consoles - PC - VR '' go go go
    karbon posted the 01/04/2016 at 10:34 PM
    J'attends une légère baisse de ma 980 gtx et je passe en SLI
    nemesistavern posted the 01/04/2016 at 10:44 PM
    brun201
    Ce qui compte c'est que tu ailles vers ce qui te plait, personne en t'obliges à jouer en VR. Surtout que ça apporte structement rien à des jeux qui sont pas des FPS car tu perds largement le facteur d'immersion.
    Ma carte 3D est VR Ready si on peut dire, mais c'est pas pour jouer à la VR que je l'ai prise.

    Et puis qui sait si Nintendo ne va pas nous sortir une console NX qui en fait fait la VR au final ?
    octobar posted the 01/04/2016 at 11:13 PM
    thomass2 osef.
    solidfisher posted the 01/05/2016 at 12:14 AM
    thomass2 ça reste quand même un quadcore à 3.6ghz hein
    solidfisher posted the 01/05/2016 at 12:16 AM
    karbon Tu veux un SLI pour quelque chose en particulier ?
    thomass2 posted the 01/05/2016 at 07:15 AM
    solidfisher Intel Core i7 870 pour socket 1156 : 4 coeurs, 2,93 GHz

    a la limite overclocké..
    ocyn posted the 01/05/2016 at 07:55 AM
    psychoroid La 4k n'influe pas sur la puissance qu'il faut pour le processeur. Seul le GPU doit être costaux. Je met Crysis 3 en ultra avec ma GTX 980 ti, je tourne à 35 fps, je le met en médium, ça tourne au delà des 60 fps, toujours en 4K. Et à chaque fois, mon GPU est à 99%, mon CPU est loin des 99%. Le processeur n'a pas besoin de plus de puissance pour un affichage en 4K, c'est une fausse idée reçu. Si tu joue en 1080p et à 144 fps, il te faudra obligatoirement un très bon CPU. Si tu joue en 4K à 60 fps, un i5 suffirait presque.

    Sur cette vidéo, tu vois clairement que c'est le double GPU qui bride les fps et non pas le CPU.

    https://www.youtube.com/watch?v=1e8Spkh3mSg

    solidfisher Un petit OC et ça devrait passer :

    https://www.youtube.com/watch?v=mSD40aoNRIc

    nemesistavern J'ai joué à pas mal de jeu VR à la troisième personne, et l'immersion est bien plus grande que sur une écran classique.
    solidfisher posted the 01/05/2016 at 10:51 AM
    thomass2 Le mode turbo passe la fréquence à 3.6ghz quand c'est nécessaire donc pas besoin d'OC.

    Et juste comme ça, un i7 870 c'est 4 coeurs et 8 threads, un i5-4590 c'est 4 coeurs et 4 threads, autrement dit, j'ai mieux que ce qui est requis

    http://ark.intel.com/fr/products/80815/Intel-Core-i5-4590-Processor-6M-Cache-up-to-3_70-GHz .

    http://ark.intel.com/fr/products/41315/Intel-Core-i7-870-Processor-8M-Cache-2_93-GHz .

    jonnaille Je peu pas OC à cause de mon BIOS de merde, qui empêche toute modif..
    ocyn posted the 01/05/2016 at 11:10 AM
    solidfisher Ha merde dommage.

    Pour les processeur, il n'y a pas que les Ghz et les Threads, il y a aussi l'architecture qui fait beaucoup. Si tu veux une comparaison de ton proco avec le i5 recommandé pour l'oculus rift :

    http://cpu.userbenchmark.com/Compare/Intel-Core-i7-870-vs-Intel-Core-i5-4590/m961vs2604

    Après je reste confiant, quand je vois les proco recommandé pour certain jeux, du genre i7 4790, alors qu'un i5 2500k suffit largement, voilà...
    solidfisher posted the 01/05/2016 at 01:09 PM
    jonnaille Ha oui, il se fait bien niquer mon proc en fait

    Tfaçon comme je te disais, j'ai pas vraiment le choix, avec mon chipset je pouvais pas espérer beaucoup mieux qu'un i7 870, et je peu te dire que je m'estime déjà bien heureux parce qu'avant je tournais sur un i5 650 (dual core) et la il n'y plus de comparaison possible, j'ai gagné 10/15 fps en moyenne sur tout mes jeux, avec une stabilité général qui n'a plus rien à voir avec avant !

    Et bref, je verrais bien ce qu'il en est avec la VR
    ocyn posted the 01/05/2016 at 01:19 PM
    solidfisher Ouai, je ne me fait pas trop de souci, les jeux qui mettent à plat les i5 de troisième génération se comptent sur les doigts d'une main. Ton proco est à jour pour la majorité de jeux, mais il y a des exceptions. GTA V par exemple doit avoir un peu de mal, je pense que ton GPU n'arrive pas à délivrer tout son potentiel dans ce jeu par exemple. Quoi que... Tu as quoi comme GPU ?
    solidfisher posted the 01/05/2016 at 01:25 PM
    jonnaille Alors justement non, GTA 5 fait partie des jeux que je fais le mieux tourner, entre 60 et 70 fps constant, en 1080p, avec tout les réglages en high/ultra, une merveille d'optimisation ce jeu

    Ma CG c'est une GTX 770 OC.
    ocyn posted the 01/05/2016 at 01:38 PM
    solidfisher Okey, oui je pense bien que si tu ne touche pas à la distance d'affichage dans les options graphiques avancés, il n'y a pas de problème. Mais si tu met la distance d'affichage au max dans les options graphiques avancées, tu verras que ton processeur en prend un coup. Suffit d'utiliser MSI after burner pour s'en rendre compte.

    Okey, vu ta carte graphique et ton processeur, ça reste équilibré. Par contre, l'oculus rift ne se lance pas si tu n'as pas eu moins une GTX 970, c'est un choix d'oculus, à voir si se sera contournable.
    psychoroid posted the 01/05/2016 at 05:32 PM
    jonnaille
    t'as tout faux
    le 4790k bride en 4K justement (d'ailleurs dans ta video il est OC'ed à 4.7GHz) D'ailleurs le mec joue en SMAA LOw 1x (et sans Vsync en plus)
    en comparaison:
    http://www.youtube.com/watch?v=ZABt8bHgDHo
    http://images.anandtech.com/doci/8426/1%20-%20Processors.png
    un Hexacore (5930k ou 5820k) fera mieux car ils disposent de 6 cores et de + de lignes PCI Express (40 lignes pour le 5930k et 28 lignes pour le 5820k, contre seulement 16 pour le 4790k...ce qui permet de faire tourner deux cartes en respectivement 2x PCIE3.0 16x sur le 5930k et 1x PCIE3.0 16x + 1x PCIE3.0 8x)
    (sur un 4790k dejà vu que t'as que 16 lignes PCIE3.0 , quand tu branches 2 cartes elles tournent chacune en PCIE 3.0 8x ce qui équivaut sensiblement à du PCIE 2.0 16x )
    Tu perds quelques Frames avec l'histoire des lignes PCI express, mais c'est surtout le nombre de coeurs qui changent la charge (un i7 quadcore c'est 4 coeurs physiques et 4 autres émulés alors qu'un hexacore t'as dejà 6 coeurs réels en + des coeurs émulés)
    psychoroid posted the 01/05/2016 at 05:39 PM
    ps: et quand tu mets en medium ou que tu baisses l'AA, ton CPU a forcement moins de points et d’algorithmes à calculer.
    karbon posted the 01/05/2016 at 06:03 PM
    solidfisher

    Juste avoir un peu de marge, et je trouve ça dommage de ne pas finir d'équiper mon 4790k une bonne fois pour toute sachant qu'ensuite je ne suis pas prêt de change de PC.

    Je change de machine pratiquement tous les 10 ans !
    karbon posted the 01/05/2016 at 06:08 PM
    psychoroid

    Ca correspond à quoi le pourcentage en dessous de la fréquence sur la vidéo ?
    ocyn posted the 01/05/2016 at 07:19 PM
    psychoroid Concernant la gestion des cartes graphiques okey. Mais en dehors de ça, la résolution n'influe pas du tout la charge CPU en jeu. C'est bien le GPU qui prend tout dans la gueule. Le CPU va gérer l'IA ou la spatialisation des objets 3D dans l'espace.
    ocyn posted the 01/05/2016 at 07:24 PM
    psychoroid D'ailleurs, dans ta vidéo, tu vois bien que le CPU n'est pas à 100%. Il n'y a pas de CPU limited, c'est la gestion des cartes graphiques et l'histoire du PCI express qui est en cause. Tant que tu reste en mono GPU, tu peux avoir un i7 4790k ou un i7 5930k, les performances seront les mêmes en 4K, les deux processeur sera loin des 100% quand la carte graphique sera à 100% dans les deux cas.
    psychoroid posted the 01/06/2016 at 10:04 AM
    jonnaille karbon
    non mais tu comprends pas que meme avec une gtx 980ti, en mode PCIE 3.0 16x tu gagnes au mieux sur Crysis 3 quelque chose comme 3-4 FPS.
    Là y a des écarts de 15 voir 20 FPS dans la video.

    Ensuite les chiffres de FRAPS sur le CPU ne reflete pas vraiment la réalité sur le CPU: je peux te sortir des videos de Crysis 3 sur FX 8320E ou le CPU est loin des 50% d'utilisation et pourtant on voit clairement que le PC est limité par le CPU
    http://www.youtube.com/watch?v=jYpSBLrhJaQ

    pour terminer, je te confirme que les perfs du CPU jouent un role sur le nombre de FPS
    https://youtu.be/wd1lHFgoVxA?t=48
    (meme CG, memes presets, meme jeu, meme passage dans le jeu, meme CPU sauf pour la fréquence...)
    Ton GPU affiche certes, mais ton CPU calcul toutes les lignes d'algorythmes avant.
    http://www.ilemaths.net/img/forum_img/0497/forum_497143_1.png /> (et si tu mets un AA plus élevé de type SSAA x 4 par rapport à du FXAA, les lignes à l'horizon étant beaucoup plus nettes en SSAA celà a un impact sur les performances du CPU.)
    ocyn posted the 01/06/2016 at 10:14 AM
    psychoroid Dans ta première vidéo GPU usage : 100% tout le long, aucune limitation du CPU. Ne confond pas GPU et CPU.

    Le CPU joue un rôle dans les FPS oui, mais il ne joue pas un rôle dans la resolution. Tu passes un jeu du 1080p au 4K, le CPU n'est pas plus impacté en 4K qu'en 1080p. C'était bien ça le débat. Tu veux jouer en 144 fps en 1080p, il te faut un très bon CPU, plus costaux que si tu veux jouer en 4K à 60 fps. Le CPU est important pour les fps, moins pour la résolution.

    J'ai comme l'impression que tu confond GPU et CPU. Ton dernier lien ne fonctionne pas, mais l'AA impacte le GPU, pas le CPU.
    ocyn posted the 01/06/2016 at 10:21 AM
    psychoroid d'ailleurs, dans cette vidéo : http://www.youtube.com/watch?v=jYpSBLrhJaQ

    Ou tu vois que le PC est limité par le CPU ? Je vois un GPU usage à 100% (carte graphique). Elle le peut pas monter plus loin que 100%, c'est clairement la carte graphique qui est à son maximum. Aucun problème du coté du CPU.

    Je le répète. Sur du mono GPU, passer du 1080p au 4K n'impacte pas plus le CPU, par contre, il impacte énormément le GPU. Je le sais puisque j'ai une GTX 980 ti couplé à un i7 4790k, j'ai un écran 4K et j'ai fait mes tests. Passer du 1080p au 4K ne change rien dans l'utilisation de mon CPU, par contre, ma carte graphique passe de 40% d'utilisation à 100%. Et quand ma carte graphique n'arrive pas à afficher les 60 fps, mon CPU baisse son pourcentage d'utilisation comparé au 1080p et à 60 fps.
    psychoroid posted the 01/06/2016 at 09:09 PM
    jonnaille

    t'es lourd.
    fx 9590
    http://youtu.be/fsw8C-Mw-9s?t=46
    (tu les voies les ralentissements?)
    vs
    i7
    http://www.youtube.com/watch?v=SVfeOZgzTuA
    (et c'est la meme carte graphique)

    c'est bien la preuve qu'un FX est trop léger pour Crysis3 (meme s'il permet d'y jouer dans des conditions convenables)

    un GPU c'est bete. un GPU ça rempli des surfaces en fil de fer de textures, et de shadders.
    qui lui dit qui doit remplir quoi ? le CPU.
    qui doit calculer la distance qui sépare un point A d'un point B (qui est multipliée par 4 quand tu fais de la 4K) dans une arrete en fil de fer? le CPU.

    je te donne un autre exemple
    prends Zoe HD collection sur ps3 vs 360.
    la 360 a un GPU plus puissant c'est admis.
    la ps3 a un CPU plus puissant, c'est admis.
    -Qui fait du 1080p MSAA 60FPS depuis sa mise a jour qui gere les 8 coeurs ?
    -Qui fait du 720p FXAA 55 FPS?

    bein c'est la ps3 dans le 1er cas et la 360 dans le 2eme.
    et c'est pas une histoire de GPU...(puisque celui de la 360 est largement au dessus)
    la version ps3 faisait tourner le jeu en 720p 30 FPS FXAA sans son patch 2.0 (pour l'utilisation multiple des coeurs) C'est l'apport des SPE (et des 100% d'utilisation du CPU) qui a permis le jump en resolution, en AA, et en Framerate.
    (bienvenue dans le monde du CPU limited)

    alors aprés tu me diras que je compare l'incomparable (ça reste a voir, pour moi les consoles ont toujours été des PC sans clavier)
    mais ce que je t'illustre avec la video de Crysis 3 en 4K sur Hexacore et Quadcore AVEC LES MEMES CARTES GRAPHIQUES, ça prouve bien un truc: sur Cryengine, en 4K, un 4790k se cassera les dents alors qu'un 5820k planera à 60-80 FPS.
    Maintenant viens pas me sortir ta liste de jeu qui consomme rien.
    bien évidement qu'un 4790k fera tourner des jeux en 60FPS en 4K.
    (moi aussi je peux aussi faire tourner Tetris en 4K avec sur un smartphone)
    ce que je veux que tu comprenes c'est que "tout ne tournera pas à 60FPS en 4K sur 4790k "

    de la meme maniere qu'un ZombiU tournera a 60FPS en 1080p sur PC avec un i5 et une HD7850, et sur ps4 à 30FPS (bien qu'ayant une HD7850) à cause de sa partie CPU trop molle.
    http://www.youtube.com/watch?v=XojBiCuzgFk
    ocyn posted the 01/06/2016 at 09:24 PM
    psychoroid Pense ce que tu veux, j'ai le matos, j'ai fait mes tests, la résolution n'influe pas sur le CPU mais la carte graphique.

    Ton histoire de PS3 et Xbox 360 n'a rien à voir, la PS3 est pas programable de la même façon que la Xbox 360, elle est même difficile à maitriser. Les jeux multi sur PS3 étaient en inferior version pour cause de fainéantise des dév. La PS3 était capable de faire mieux que la Xbox 360 dans ses exclus. La PS3 avait une architecture très différente d'un PC, contrairement à la Xbox 360.

    Zombi U c'est juste n'importe quoi comme exemple, Ubisoft qui choisis de mettre le jeu à 30 fps pour ne pas trop se fouler.

    Tes vidéo de Crysis 3, il n'y a pas d'indication de fps en temps réel. Et on ne sait pas comment tourne la version fx 9590.

    Pour conclure, si tu avais un peu de logique, la vidéo que tu m'avais filé plus haut, celle là : https://www.youtube.com/watch?v=jYpSBLrhJaQ Te permettrait de comprendre que dans le monde du PC, le CPU ne s'occupe pas de la partie graphique, ni de la résolution. Mais bon, je ne vois pas pourquoi je perd mon temps avec toi, tu m'as l'air sûr de toi, ou plutôt, tu souhaite avoir raison. Donc reste dans tes idées. Pour moi, c'est juste hallucinant de croire l'inverse d'une réalité connue par toute les personnes connaissant un minimum le fonctionnement d'un PC en jeu.
    psychoroid posted the 01/06/2016 at 09:54 PM
    jonnaille
    "Mais bon, je ne vois pas pourquoi je perd mon temps avec toi, tu m'as l'air sûr de toi, ou plutôt, tu souhaite avoir raison. Donc reste dans tes idées. Pour moi, c'est juste hallucinant de croire l'inverse d'une réalité connue par toute les personnes connaissant un minimum le fonctionnement d'un PC en jeu."

    j'ai commencé a apprendre l'informatique et la programmation il y a exactement 30 ans sur DOS.
    ma premiere leçon par mon prof' (étudiant en ingénierie informatique à l'époque) c'etait sur le traçage d'une ligne puis d'un algorythme par le CPU qui devait ensuite le rendre au GPU ... (avec des "If... GO TO..." )
    Quand tu affiches une ligne, ton CPU doit d'abord la calculer.

    si tu devais afficher une image 4K (je parle juste d'image, pas d'IA ni de déplacement, etc ) avec un CPU a 2 MHz, t'aurais beau avoir un tri SLI de GTX titan, ça te prendrait trois plombes.
    ocyn posted the 01/07/2016 at 07:53 AM
    psychoroid Tu est resté figé sur des architectures d'il y a 30 ans on dirait. Aujourd'hui, les cartes graphiques s'occupent de la partie graphique et de l'affichage, le CPU va s'occuper de l'intelligence artificielle, de la spatialisation des objets 3D dans l'espace (je parle de spatialisation, pas de rendu), de l'animation. Le GPU s'occupe d'afficher les polygones, les textures et les pixels à l'écran. Plus l'écran à une haute résolution, et plus le GPU va être sollicité. Le MSAA/FXAA/SMAA est également géré par le GPU et non le CPU.

    Maintenant, je vais faire une capture vidéo d'un jeu tournant en 1080p et en 4K, avec un affichage en temps réel de l'utilisation GPU et CPU, et si avec ça, tu reste borné dans tes idées d'un autre temps, je ne pourrais plus rien pour toi. La vidéo sera posté quand elle sera uploadée, ça pourrait prendre du temps, mais ça arrive, ne t'inquiète pas.
    ocyn posted the 01/07/2016 at 11:14 AM
    psychoroid Voilà la vidéo. Que se soit en 4k ou en 1080p, le CPU usage oscille aux alentours des 10%. Par contre, le GPU Usage passe du simple au double, voir plus.
    ocyn posted the 01/07/2016 at 11:18 AM