C'est l'idée reçue que je remarque dans pas mal de forums, et même sur Gamekyo.
Lors d'un débat, un "informaticien chevronné" m'assurait que la 4K demandait plus de puissance CPU (processeur principal) afin de gérer l'affichage 4x plus élevé que le conventionnel 1080p.
Pour moi il a toujours été clair que la 4K tape dans le GPU (carte graphique).
Le CPU s'occupant principalement de l'intelligence artificielle, de la spatialisation des objets 3D (et non pas l'affichage des objets 3D) ou de l'animation (en dehors des feartures tel que le hairworks géré par le GPU).
Le GPU calcul tout ce qui est modèle 3D, textures, effets de lumière, AA ou l'affichage en pixel.
Plus l'affichage a une densité de pixel élevée et plus le GPU a besoin de ressources au niveau de sa mémoire GDDR5 et de son propre processeur graphique.
Notez que passer de 30 à 60 images par secondes "doublera" l'intensité d'utilisation et du GPU et du CPU.
Voici une vidéo que j'ai uploadé pour illustrer un fait qui a toujours été clair pour moi : La 4K ne demande pas plus de ressource CPU comparé au 1080p.
L'usage du CPU oscille aux alentours des 10% dans les deux cas. Contrairement au GPU qui augmente son utilisation à plus du double (presque le triple) lors du passage du 1080p au 4k.
Voilà, j'ai uploadé une vidéo pour illustrer mes propos dans un débat, je voulais que se soit utile, j'en ai fait un article.
jonnaille J'ai vu du 4K sur un moniteur 4K, c'est vraiment classe, mais pas au moins de vouloir y jouer, je préfère garantir mon 60 fps a tout moment
Après moi je joue sur ma télé, assez loin, c'est pas du vrai 4k mais j'ai essayé le DSR de nividia pour simuler le 4k, et bien que je vois la différence en allant pret, et que c'est pas mal, a la distance ou je joue, je n'en vois pas, donc je me contente du 1080 ^^
megaman Je privilégie toujours la fluidité, je joue à la majorité de mes jeux en 4K, je baisse des fois quelques options graphiques. Je préfère jouer en medium 4K qu'en ultra 1080p. Même si The Witcher 3 ou Crysis 3 tournent en 4K à 60 fps en élevé (pas ultra).
Après oui, la DSR n'est pas comparable, j'avais testé la DSR sur mon écran 1080p à l'époque, je me suis quand même pris une mega gifle quand je suis passé sur un vrai écran 4k.
sur mon nouveau téléphone (galaxy s6) j'ai accès à des videos 4k. Et bien quoi qu'on en die on voit une différence par rapport au 1080p, comme les télés que je vois à la fnac. La finesse n'a plus rien à voir.
superpanda T'arrive à le voir même sur un ptit écran galaxy S6 C'est la preuve que la 4K est flagrante sur des écran de taille normal. Parce que beaucoup s'imaginent que ça ne change rien par rapport à la densité de pixel "suffisant" en 1080p.
jonnaille tu préfère medium 4k que ultra? meme sur witcher 3? Ouais une question de gouts au final, on verra le jour ou je me paierai une télé 4k mais pour l'instant je suis satisfait de ce que j'ai ^^ (dejà pris une belle claque sur le witcher 3 60 fps ultra)
megaman The Witcher 3 je le fait tourné en élevé et pour certaines options en très élevé, et ça tourne à 60 fps en 4K. Mais j'ai fait des tests, et le medium sur un jeu m'impressionne plus en 4K que l'ultra en 1080p.
4k c est vraiment impressionnant. Rien que le fait de pas devoir mettre d anti aliasing et qu on voit quasiment pas d aliasing. J ai joué a fallout 4 en 4k 60 images sec, quand j ai comparé a la version ps4 on aurait cru une autre génération. J ai déjà envie d avoir des consoles qui fassent du 4k
solidfisher Non, pas encore testé en 4K, faut que je le récupère.
gearsofwar C'est exactement ça, quand je repasse sur ma PS4, ça me fait mal
edgar J'étais entrain de faire le même calcul, tu m'as devancé
kube Ouai, ça demande des ressources GPU considérable, c'est certain. Le but de l'article était surtout de tordre l'idée reçu que 4K = obligatoirement un CPU de guerre, or c'est la carte graphique qui est importante lors du changement de résolution.
solidfisher Je l'avais testé avec mon i5 3570 et ma HD 7970, et mon proco bridait ma carte graphique. Celui là est très gourmand à tout les niveaux, surtout au niveau CPU. Faudrait vraiment que je me le reprenne pour voir ce que ça donne avec mon nouveau matos.
jonnaille oui, ton framerate dépends quasi à 100% de ton CPU, d'ou la difficulté à le faire tourner, mais il existe de nombreux tweak pour l'opti comme il se doit.
je te conseille de lire ce que dit ce mec, il a une certaine connaissance sur ce jeu, ça fais des années qu'il traine sur le fofo de jv.com pour aider les autres :
solidfisher Merci, je jette un coup d’œil. Je pense qu'avec ce jeu, je vais tenter l'OC de mon CPU pour voir si ça aide. C'est un bon "outil" pour voir l'utilité d'OC un CPU, parce que jusqu'à là, aucun jeu n'a été limité par mon CPU.
jonnaille
Tu as besoin de toujours plus être impressionné t'es un éternel insatisfait
megaman
Je suis aussi content avec ce que j'ai, et au moins ma carte graphique affiche du 1080p and 60 fps sans que j'ai à acheter un PC de guerre + le moniteur 4K qui lui aussi n'est pas donné.
Je joues aussi en émulation sur PC et c'est pas la 4K qui va apporter mieux dans ce cas aussi.
C'est peut être pas mal d'avoir encore plus de détails mais ça va pas rendre le gameplay et l'intérêt du jeu meilleurs.
Quand les prix auront beaucoup baissé, je me laisserai peut être tenter mais pour l'instant ça ne m'intéresse pas.
xorlefort j'ai quand meme un PC de guerre a 2500 euro, mwarf (compte quand meme moins sachant qu'en suisse les pièces sont plus cher, mais ca reste un pc de guerre, mwarf)
je veux etre sur qu'il me tiens quelques année en 1080 60 fps meme pour des truc plus beau que witcher 3 eventuellement
xorlefort C'est juste que j'ai eu l'opportunité d'avoir un écran 4K en échange de mon oculus rift DK2 acheté 280 euros d'occasion que j’ai torturé durant 2 mois, je n'aurais pas acheté d'écran PC 4K autrement. Si j'étais un éternel insatisfait, je me serais rué sur l'Oculus à 741 euros. J'suis pas comme ça non.
Pour ce qui est de l'émulation, ça apporte une image bien pus nette sur des jeux Wii ou Gamecube. Un peu comme le passage du 480p au 1080p. J'ai pas encore essayé de jeux Snes ou autre en 4K pour voir la différence.
Après, c'est, comme tu le fais remarqué, une question de coût. Je comprend les réticence du au coup, mais ça ne justifie pas de descendre l'idée que l'affichage 4K apporte énormément visuellement parlant.
Pas besoin d'être en 4K pour être à 100% en usage CPU (avec un i5, je précise).
Fallout 4, AC, Just Cause,...les jeux en mode ouvert fonctionnent vraiment mieux avec un i7 !
Et ce phénomène se généralise car les consoles ont aussi des CPU à 8 coeur (à moindre fréquence évidemment).
Tu as quoi comme CPU ?
J'ai un i5 3570k à 4.2Ghz (sans toucher au voltage) et pendant un temps je pensais passer au 6600k mais il semblerait que les perfs ne soient pas beaucoup plus élevées en jeu, tout du moins pas assez pour justifier de changer de socket.
mustdie La question est simplement de savoir si augmenter la résolution augmenterait la charge CPU. Pas de savoir si il faut un i7 pour jouer aux derniers jeux. C'est un autre débat.
apollokami En réalité, si tu veux changer de CPU, passe sur un i7, ou reste sur ton i5. Entre le i5 3570k et le i5 6600k, il n'y a pas de grosse différence. Le i7 se débrouille mieux dans les open world type GTA V, Dying Light ou les AC.
Tu te sens limité par ton i5 dans des jeux type GTA V ?
jonnaille En fait je ne pensais pas que les i7 avaient un avantage en jeu par rapport aux i5, en tout cas ce qu'on disait à l'époque mais visiblement ce n'est plus le cas. Donc si je change je prendrai plutôt un i7 ^^
jonnaille Salut Jonnaille, dis voir un peu HS mais une barrette de 4Go de Ram a cramé sur mon pc (il me reste donc que 4Go) et pourtant je fais tourner les jeux nécessitant des 6 a 8go de ram (arkham knight, AC...) je voulais savoir si c'était normal ou si les éditeur raconte n'imp dans leur config recommandé ? Paske j'ai pas l'impression que les jeux tournent moins bien..
vyse C'est normal et les éditeurs racontent n'importe quoi. J'avais fait le test des 4Go dans AC unity, et ça ne changeait rien niveau performances. Après, certain jeux s'amusent à ne pas se lancer si tu n'as pas les 8 go, il me semble qu'un des call of jouaient à ça, mais facilement contournable.
apollokami A l’époque, il n'y avait pas de différences, mais depuis les jeux multi PS4/One/PC, l'HT des i7 est utilisé, et les i7 font la différence sur les derniers jeux.
apollokami Ouai, d'ici un an ou deux tu auras sans doute des i7 encore meilleure, t'as le temps de voir venir. Tu te renseignera mieux le moment venu, mais c'est clair que d'ici là, le i7 serra la norme je pense pour le jeu.
A une époque lointaine, on disait que le quad core ne servait à rien, que le dual core faisait la même chose en jeu, et entre temps ça a changé.
jonnaille Lol c'est call of duty 3, je t'ai facilement contourné ca, mais c'est dingue ce bullshit ? je vais un jour faire the witcher 3 et tu crois que c'est pareil niveau perf y'aura aucune diff ?
vyse oui mais sa se démocratise a une vitesse v grand en deux ans, tu es passé d'une tv 55 pouces 1080p de 10 000 euros a 1500 euros a un certain moment...l'euro 2016 arrive et tu vas avoir des bons prix mais c'est sur qu'il faudra compter au minimum aux alentour de 1500 euros mais l'image est incomparable et la finesse est top. jonnaille Le ces a las vegas ma exité avec de superbes nouveaux écrans lg oled uhd hdr de nouvelle gen, panasonic aussi mais samsung et sony pas avant 2017, tout en proposant des uhd full led hdr...un peu cher aussi dans les memes eaux...
raoh38 Ouai, ben les seuls à avoir parié sur l'Oled sont justement LG et Pana, normal que les autres sont à la traîne maintenant. J'ai faillie acheté une 4K Samsung, mais en m'informant sur l'Oled, j'ai compris qu'il valait mieux attendre un peu avant d'investir dans un nouvel écran. Je pense que j'irais du coté de LG, je verrais bien.
jonnaille cette année technologiquement s'annonce incroyable dans l'informatique avec les news gpu 14-16 nm avec mémoire ggdr5x et hbm 2, le nouveau processeur zen ( sa fait un moment que j’attends de renouveler mon pc de 5ans ) et dans le home cinéma avec l'arrivée des bduhd dés mars et des tv uhd avec le nouveau procédé hdr oled...sa stagnait comme pour les pc depuis de trop nombreuses années avec leur vieux edge led un peu moisi pour obtenir du contraste....
Et oui même si c'est dur il vaut mieux attendre..dans les années a venir on va avoir beaucoup de tv oled sous dalles lg qui a massivement investit... et conjointement avec samsung aussi lg vont investir encore des milliards la dessus, sur de nouvelles usines ...
jonnaille mdrr pas grave c'est ainsi depuis l'époque lointaine ou j'étais Pro-N et qu' a 15 ans j’annonçais fièrement dans une cour de récré que je jouais a V.Joe et Tales of symphonia xD (autant dire que je cherchais les ennuis)
vyse j'assume complètement jonnaille oui sa fait des décennies que je suis la technologie de tout bord ,quand je me rappelle que les tv panasonic et sony 16:9 cathodique a l'epoque etait le top avec des definitions 480p pesant pour les 92 cm de diagonale (taille géante a l’époque) 90 kg
Sans parler des magnetos et autre amstrad 6128 ect...
Actuellement j'ai un pana plasma 65 pouces (et avant un légendaire kuro de pioneer) j’espère passer a du 75 pouces pour le prochain mais je pense que malgré ma très forte envie pour cette année je crois bien que pour un prix raisonnable (bien sur il faudra quand mème tapé haut) sa sera pour 2017
raoh38 C'est clair que vu comme ça, la technologie évolue d'une manière impensable.
Avec mon LCD 107 cm j'suis loin derrière toi Je vise minimum 55 pouces pour le prochain, et oled 4k obligatoire.
superpanda sur les premiere gens oui a cause du bleu mais celle de 2015 et surtout les nouvelles gens de 2016 seront normalement épargnés.De plus sa ne touchait pas tout le monde, la tech est jeune et les soucis sont corrigés comme le marquage (problème que le plasma a eu a ses débuts), c'est pour cela que si je devai prendre une oled sa serait minimum un modèle 2016.
raoh38 merci de l'info. Mon plasma samsung de 7 ans marque effectivement beaucoup, mais ça finit toujours par partir!
Je bave un peu devant tous ces nouveaux écrans, je n'ai qu'un 720p et sur ma one ça pique un peu les yeux par rapport à mon écran pc ips 1080p... d'ailleurs j'ai essayé de brancher ma one dessus, le rendu sur forza et halo est incomparable. Par contre en terme de cinéma j'aime bien le rendu chaud de ma tv par rapport aux lcd... les led je connais pas trop, c'est pas trop "camescope" comme rendu sur les films?
superpanda le rendu lcd est moins doux qu'un plasma , plus "generique" mais c'est quand même du beau spectacle..pour l'effet camescope cela vient des traitements dsp (compensation de mouvement pour une meilleure fluidité des scènes)de chaque constructeur, sur les stand ou les magasins souvent ce mode est mis sur haut se qui donne un effet cmescope meme sur mon plasma, donc je lai mis sur bas et la c'est nickel..
Pour le lcd il y en a d’excellent se sont les full led, évite les edge led certes très fin mais avec beaucoup moins de diodes led et donc des défauts dont un contraste (couleur sur noir) vraiment pas terrible.
Le oled c'est le top et le futur des écrans tv, un noir parfait, une conso inférieure ,une finesse incroyable, et les pixels désactivables pour un noir parfaits...
"Lors d'un débat, un "informaticien chevronné"... "
mmhh ok.
mais sinon ta video d'un arbre ( ) je trouve ça assez énorme.
t'aurais du carrément enregistrer le fait de bouger ta souris sur le bureau windows (t'aurais gagné du temps et nous aussi)
psychoroid Ma vidéo d'un arbre n'est pas une vidéo, mais un jeuvidéo. Il est bien question d'utilisation CPU dans un jeuvidéo en 1080p et en 4K. Manque de jugeote ou mauvaise foi ?
Ta vidéo montre une gestion de SLI. Tu le sais très bien que le processeur i7 4790k propose un pci express 16x et l'autre pci express en 8x. Contrairement au i7-5930K qui propose une gestion du pci express 16x pour les deux cartes graphiques. Rien à voir avec la charge CPU. (tu peux le voir dans la vidéo, le CPU est a 40/50%.
Je t'avais indiqué qu'en double GPU, un proco différent pourrait faire la différence grâce à la gestion de pci express.
Donc tu me prouve que tu fais preuve de très mauvaise foi. Ou alors t'as un sérieux problème de compréhension des choses.
Mais bon, comparer un jeu (Ethan Carter) à un bureau Windows ça ne vole pas haut.
minicupi Lorsque tu regarde une vidéo YouTube en 4K, ton CPU va prendre, puisque c'est la partie graphique intégré au CPU qui travail et non la carte graphique. Pour ma part, c'est le cas sur mon PC.
Mais là je parle uniquement du jeuvidéo. Ma vidéo postée est une vidéo d'un jeu vidéo en 3D temps réel qui s'appel Ethan Carter, tournant sous LUE3 à l'origine, il a été porté sous l'UE4 pour le porter sur PS4, par la même occasion, il a été rendu disponible sur PC sous l'UE4. La version lancée est une version du jeu tournant sous l'UE4 (Unreal Engine 4). Il ne s'agit pas d'une vidéo pré calculé, mais d'un jeu.
I am glad you've shared the details about all the CPU usage here. I want to know the details for the Best 4K Monitor for Programming, and if you share these details soon, I'd be extremely pleased.
Bon après j'imagine que j'ai pas besoin de détailler ou de t'expliquer pourquoi, tu le sais mieux que moi n'est-ce pas ?
flom Ouai okey, meilleur argument du monde
Des jeux développé en 480p (jeux Wii) sont jouables en 4K. La 4K n'est qu'une résolution. Je ne vois pas le rapport avec la créativité.
Après moi je joue sur ma télé, assez loin, c'est pas du vrai 4k mais j'ai essayé le DSR de nividia pour simuler le 4k, et bien que je vois la différence en allant pret, et que c'est pas mal, a la distance ou je joue, je n'en vois pas, donc je me contente du 1080 ^^
Après oui, la DSR n'est pas comparable, j'avais testé la DSR sur mon écran 1080p à l'époque, je me suis quand même pris une mega gifle quand je suis passé sur un vrai écran 4k.
edgar Tien, tu peux voir un ordre de grandeur, c'est peut être plus parlant : http://www.geckohomecinema.co.uk/wp-content/uploads/2014/06/UHD-resolution_201309231.jpg
binou87 Aucune idée, je sais que ça existe déjà au japon.
Si non, concernant la 4K, en vrai, les résolutions qu'on a dite 4K sont en fait du UHD.
1920 x 1080 = 2 073 600 pixels
3840 x 2160 = 8 294 400 pixels
Ce qui nous fait bien 4 fois et non 8 fois
De toute façon pour la majorité l'affichage 3D temps réel, la carte graphique prime.
gearsofwar C'est exactement ça, quand je repasse sur ma PS4, ça me fait mal
edgar J'étais entrain de faire le même calcul, tu m'as devancé
kube Ouai, ça demande des ressources GPU considérable, c'est certain. Le but de l'article était surtout de tordre l'idée reçu que 4K = obligatoirement un CPU de guerre, or c'est la carte graphique qui est importante lors du changement de résolution.
je te conseille de lire ce que dit ce mec, il a une certaine connaissance sur ce jeu, ça fais des années qu'il traine sur le fofo de jv.com pour aider les autres :
http://www.jeuxvideo.com/forums/42-3000041-38629915-1-0-1-0-problemes-fps-methode-old-bear.htm
Tu as besoin de toujours plus être impressionné t'es un éternel insatisfait
megaman
Je suis aussi content avec ce que j'ai, et au moins ma carte graphique affiche du 1080p and 60 fps sans que j'ai à acheter un PC de guerre + le moniteur 4K qui lui aussi n'est pas donné.
Je joues aussi en émulation sur PC et c'est pas la 4K qui va apporter mieux dans ce cas aussi.
C'est peut être pas mal d'avoir encore plus de détails mais ça va pas rendre le gameplay et l'intérêt du jeu meilleurs.
Quand les prix auront beaucoup baissé, je me laisserai peut être tenter mais pour l'instant ça ne m'intéresse pas.
je veux etre sur qu'il me tiens quelques année en 1080 60 fps meme pour des truc plus beau que witcher 3 eventuellement
Pour ce qui est de l'émulation, ça apporte une image bien pus nette sur des jeux Wii ou Gamecube. Un peu comme le passage du 480p au 1080p. J'ai pas encore essayé de jeux Snes ou autre en 4K pour voir la différence.
Après, c'est, comme tu le fais remarqué, une question de coût. Je comprend les réticence du au coup, mais ça ne justifie pas de descendre l'idée que l'affichage 4K apporte énormément visuellement parlant.
megaman Tu as quoi comme matos ?
Fallout 4, AC, Just Cause,...les jeux en mode ouvert fonctionnent vraiment mieux avec un i7 !
Et ce phénomène se généralise car les consoles ont aussi des CPU à 8 coeur (à moindre fréquence évidemment).
J'ai un i5 3570k à 4.2Ghz (sans toucher au voltage) et pendant un temps je pensais passer au 6600k mais il semblerait que les perfs ne soient pas beaucoup plus élevées en jeu, tout du moins pas assez pour justifier de changer de socket.
Mais bon ce n'est pas le débats
Tu te sens limité par ton i5 dans des jeux type GTA V ?
apollokami A l’époque, il n'y avait pas de différences, mais depuis les jeux multi PS4/One/PC, l'HT des i7 est utilisé, et les i7 font la différence sur les derniers jeux.
A une époque lointaine, on disait que le quad core ne servait à rien, que le dual core faisait la même chose en jeu, et entre temps ça a changé.
vyse Ouai, trop cher encore, mais je reste patient, comme pour l'Oculus.
jonnaille Le ces a las vegas ma exité avec de superbes nouveaux écrans lg oled uhd hdr de nouvelle gen, panasonic aussi mais samsung et sony pas avant 2017, tout en proposant des uhd full led hdr...un peu cher aussi dans les memes eaux...
Et oui même si c'est dur il vaut mieux attendre..dans les années a venir on va avoir beaucoup de tv oled sous dalles lg qui a massivement investit... et conjointement avec samsung aussi lg vont investir encore des milliards la dessus, sur de nouvelles usines ...
jonnaille oui sa fait des décennies que je suis la technologie de tout bord ,quand je me rappelle que les tv panasonic et sony 16:9 cathodique a l'epoque etait le top avec des definitions 480p
Sans parler des magnetos et autre amstrad 6128 ect...
Actuellement j'ai un pana plasma 65 pouces (et avant un légendaire kuro de pioneer) j’espère passer a du 75 pouces pour le prochain mais je pense que malgré ma très forte envie pour cette année je crois bien que pour un prix raisonnable (bien sur il faudra quand mème tapé haut) sa sera pour 2017
Avec mon LCD 107 cm j'suis loin derrière toi
Je bave un peu devant tous ces nouveaux écrans, je n'ai qu'un 720p et sur ma one ça pique un peu les yeux par rapport à mon écran pc ips 1080p... d'ailleurs j'ai essayé de brancher ma one dessus, le rendu sur forza et halo est incomparable. Par contre en terme de cinéma j'aime bien le rendu chaud de ma tv par rapport aux lcd... les led je connais pas trop, c'est pas trop "camescope" comme rendu sur les films?
Pour le lcd il y en a d’excellent se sont les full led, évite les edge led certes très fin mais avec beaucoup moins de diodes led et donc des défauts dont un contraste (couleur sur noir) vraiment pas terrible.
Le oled c'est le top et le futur des écrans tv, un noir parfait, une conso inférieure ,une finesse incroyable, et les pixels désactivables pour un noir parfaits...
Mais jpense que tu devrais faire une distinction entre une video 4k précalculée ou un affichage calculé en temps reel comme le jeu video.
Car effectivement dans ce derniere c'est principalement le gpu qui va bouffer.
mmhh ok.
mais sinon ta video d'un arbre (
t'aurais du carrément enregistrer le fait de bouger ta souris sur le bureau windows (t'aurais gagné du temps et nous aussi)
http://www.youtube.com/watch?v=ZABt8bHgDHo
"may la 4K ça bouffe rien sur le CPU"
Ta vidéo montre une gestion de SLI. Tu le sais très bien que le processeur i7 4790k propose un pci express 16x et l'autre pci express en 8x. Contrairement au i7-5930K qui propose une gestion du pci express 16x pour les deux cartes graphiques. Rien à voir avec la charge CPU. (tu peux le voir dans la vidéo, le CPU est a 40/50%.
Je t'avais indiqué qu'en double GPU, un proco différent pourrait faire la différence grâce à la gestion de pci express.
Donc tu me prouve que tu fais preuve de très mauvaise foi. Ou alors t'as un sérieux problème de compréhension des choses.
Mais bon, comparer un jeu (Ethan Carter) à un bureau Windows
Mais là je parle uniquement du jeuvidéo. Ma vidéo postée est une vidéo d'un jeu vidéo en 3D temps réel qui s'appel Ethan Carter, tournant sous LUE3 à l'origine, il a été porté sous l'UE4 pour le porter sur PS4, par la même occasion, il a été rendu disponible sur PC sous l'UE4. La version lancée est une version du jeu tournant sous l'UE4 (Unreal Engine 4). Il ne s'agit pas d'une vidéo pré calculé, mais d'un jeu.
Si tu veux voir du gameplay : https://www.youtube.com/watch?v=i-j7bPzpmvg (prise au pif)