ocyn > blog
    tags :
    3
    Likes
    Who likes this ?
    xxxxxxxxxxnjixbih, freematt, koolshin
    posted the 01/07/2016 at 11:49 AM by ocyn
    comments (71)
    flom posted the 01/07/2016 at 11:52 AM
    C est marrant mais la 4k ne me fait absolument pas lever le zizi. Apres il vont nous inventer autre chose de toute façon.
    ocyn posted the 01/07/2016 at 11:54 AM
    flom Tu as testé le jeu en 4K ?
    flom posted the 01/07/2016 at 11:57 AM
    J ai surtout remarquer que ni le 720p ni le 1080i n a été au service de la creativité.
    edgar posted the 01/07/2016 at 11:57 AM
    Il y a une petite erreur, le 4K c'est pas 4 fois plus élevés que le 1080p, mais bien 8 fois

    Bon après j'imagine que j'ai pas besoin de détailler ou de t'expliquer pourquoi, tu le sais mieux que moi n'est-ce pas ?
    ocyn posted the 01/07/2016 at 12:00 PM
    edgar Non, c'est 4x 1080p. Tu prend 4 écrans 1080p, tu en refais un écran, et ça te donne un affichage 4K.

    flom Ouai okey, meilleur argument du monde

    Des jeux développé en 480p (jeux Wii) sont jouables en 4K. La 4K n'est qu'une résolution. Je ne vois pas le rapport avec la créativité.
    megaman posted the 01/07/2016 at 12:00 PM
    jonnaille J'ai vu du 4K sur un moniteur 4K, c'est vraiment classe, mais pas au moins de vouloir y jouer, je préfère garantir mon 60 fps a tout moment

    Après moi je joue sur ma télé, assez loin, c'est pas du vrai 4k mais j'ai essayé le DSR de nividia pour simuler le 4k, et bien que je vois la différence en allant pret, et que c'est pas mal, a la distance ou je joue, je n'en vois pas, donc je me contente du 1080 ^^
    binou87 posted the 01/07/2016 at 12:00 PM
    Le 8K est prévu pour 2018 non?
    amario posted the 01/07/2016 at 12:04 PM
    moi je prefere le 3K ( KKK ) Les noirs sont plus visible et la couleur plus terne
    ocyn posted the 01/07/2016 at 12:05 PM
    megaman Je privilégie toujours la fluidité, je joue à la majorité de mes jeux en 4K, je baisse des fois quelques options graphiques. Je préfère jouer en medium 4K qu'en ultra 1080p. Même si The Witcher 3 ou Crysis 3 tournent en 4K à 60 fps en élevé (pas ultra).

    Après oui, la DSR n'est pas comparable, j'avais testé la DSR sur mon écran 1080p à l'époque, je me suis quand même pris une mega gifle quand je suis passé sur un vrai écran 4k.

    edgar Tien, tu peux voir un ordre de grandeur, c'est peut être plus parlant : http://www.geckohomecinema.co.uk/wp-content/uploads/2014/06/UHD-resolution_201309231.jpg

    binou87 Aucune idée, je sais que ça existe déjà au japon.

    Si non, concernant la 4K, en vrai, les résolutions qu'on a dite 4K sont en fait du UHD.
    superpanda posted the 01/07/2016 at 12:06 PM
    sur mon nouveau téléphone (galaxy s6) j'ai accès à des videos 4k. Et bien quoi qu'on en die on voit une différence par rapport au 1080p, comme les télés que je vois à la fnac. La finesse n'a plus rien à voir.
    ocyn posted the 01/07/2016 at 12:08 PM
    superpanda T'arrive à le voir même sur un ptit écran galaxy S6 C'est la preuve que la 4K est flagrante sur des écran de taille normal. Parce que beaucoup s'imaginent que ça ne change rien par rapport à la densité de pixel "suffisant" en 1080p.
    megaman posted the 01/07/2016 at 12:12 PM
    jonnaille tu préfère medium 4k que ultra? meme sur witcher 3? Ouais une question de gouts au final, on verra le jour ou je me paierai une télé 4k mais pour l'instant je suis satisfait de ce que j'ai ^^ (dejà pris une belle claque sur le witcher 3 60 fps ultra)
    ocyn posted the 01/07/2016 at 12:14 PM
    megaman The Witcher 3 je le fait tourné en élevé et pour certaines options en très élevé, et ça tourne à 60 fps en 4K. Mais j'ai fait des tests, et le medium sur un jeu m'impressionne plus en 4K que l'ultra en 1080p.
    solidfisher posted the 01/07/2016 at 12:16 PM
    jonnaille T'a testé Arma 3 ?
    metroidvania posted the 01/07/2016 at 12:16 PM
    4k c est vraiment impressionnant. Rien que le fait de pas devoir mettre d anti aliasing et qu on voit quasiment pas d aliasing. J ai joué a fallout 4 en 4k 60 images sec, quand j ai comparé a la version ps4 on aurait cru une autre génération. J ai déjà envie d avoir des consoles qui fassent du 4k
    edgar posted the 01/07/2016 at 12:16 PM
    jonnaille > ok autant pour moi, d'ailleurs je viens de me rendre compte que je m'étais trompé, et que c'était bien 4 fois

    1920 x 1080 = 2 073 600 pixels

    3840 x 2160 = 8 294 400 pixels

    Ce qui nous fait bien 4 fois et non 8 fois
    potion2swag posted the 01/07/2016 at 12:17 PM
    Ouais fin au demeurant, ça demande des ressources supplémentaires non négligeables, c'est ça l'essentiel.

    De toute façon pour la majorité l'affichage 3D temps réel, la carte graphique prime.
    leonr4 posted the 01/07/2016 at 12:18 PM
    ocyn posted the 01/07/2016 at 12:19 PM
    solidfisher Non, pas encore testé en 4K, faut que je le récupère.

    gearsofwar C'est exactement ça, quand je repasse sur ma PS4, ça me fait mal

    edgar J'étais entrain de faire le même calcul, tu m'as devancé

    kube Ouai, ça demande des ressources GPU considérable, c'est certain. Le but de l'article était surtout de tordre l'idée reçu que 4K = obligatoirement un CPU de guerre, or c'est la carte graphique qui est importante lors du changement de résolution.
    solidfisher posted the 01/07/2016 at 12:23 PM
    jonnaille C'est un des jeu les plus gourmands qui puissent exister je crois, mais quelle claque mon vieux, quelle claque..
    ocyn posted the 01/07/2016 at 12:24 PM
    solidfisher Je l'avais testé avec mon i5 3570 et ma HD 7970, et mon proco bridait ma carte graphique. Celui là est très gourmand à tout les niveaux, surtout au niveau CPU. Faudrait vraiment que je me le reprenne pour voir ce que ça donne avec mon nouveau matos.
    ocyn posted the 01/07/2016 at 12:26 PM
    solidfisher En téléchargement, dans 2 heures je l'ai, peut être que je ferais une petite vidéo.
    solidfisher posted the 01/07/2016 at 12:30 PM
    jonnaille oui, ton framerate dépends quasi à 100% de ton CPU, d'ou la difficulté à le faire tourner, mais il existe de nombreux tweak pour l'opti comme il se doit.

    je te conseille de lire ce que dit ce mec, il a une certaine connaissance sur ce jeu, ça fais des années qu'il traine sur le fofo de jv.com pour aider les autres :

    http://www.jeuxvideo.com/forums/42-3000041-38629915-1-0-1-0-problemes-fps-methode-old-bear.htm
    ocyn posted the 01/07/2016 at 12:34 PM
    solidfisher Merci, je jette un coup d’œil. Je pense qu'avec ce jeu, je vais tenter l'OC de mon CPU pour voir si ça aide. C'est un bon "outil" pour voir l'utilité d'OC un CPU, parce que jusqu'à là, aucun jeu n'a été limité par mon CPU.
    antitrolls posted the 01/07/2016 at 12:38 PM
    jonnaille
    Tu as besoin de toujours plus être impressionné t'es un éternel insatisfait

    megaman
    Je suis aussi content avec ce que j'ai, et au moins ma carte graphique affiche du 1080p and 60 fps sans que j'ai à acheter un PC de guerre + le moniteur 4K qui lui aussi n'est pas donné.
    Je joues aussi en émulation sur PC et c'est pas la 4K qui va apporter mieux dans ce cas aussi.
    C'est peut être pas mal d'avoir encore plus de détails mais ça va pas rendre le gameplay et l'intérêt du jeu meilleurs.
    Quand les prix auront beaucoup baissé, je me laisserai peut être tenter mais pour l'instant ça ne m'intéresse pas.
    megaman posted the 01/07/2016 at 12:42 PM
    xorlefort j'ai quand meme un PC de guerre a 2500 euro, mwarf (compte quand meme moins sachant qu'en suisse les pièces sont plus cher, mais ca reste un pc de guerre, mwarf)

    je veux etre sur qu'il me tiens quelques année en 1080 60 fps meme pour des truc plus beau que witcher 3 eventuellement
    ocyn posted the 01/07/2016 at 12:44 PM
    xorlefort C'est juste que j'ai eu l'opportunité d'avoir un écran 4K en échange de mon oculus rift DK2 acheté 280 euros d'occasion que j’ai torturé durant 2 mois, je n'aurais pas acheté d'écran PC 4K autrement. Si j'étais un éternel insatisfait, je me serais rué sur l'Oculus à 741 euros. J'suis pas comme ça non.

    Pour ce qui est de l'émulation, ça apporte une image bien pus nette sur des jeux Wii ou Gamecube. Un peu comme le passage du 480p au 1080p. J'ai pas encore essayé de jeux Snes ou autre en 4K pour voir la différence.

    Après, c'est, comme tu le fais remarqué, une question de coût. Je comprend les réticence du au coup, mais ça ne justifie pas de descendre l'idée que l'affichage 4K apporte énormément visuellement parlant.

    megaman Tu as quoi comme matos ?
    ocyn posted the 01/07/2016 at 12:45 PM
    *Je comprend les réticence du au coût
    mustdie posted the 01/07/2016 at 12:51 PM
    Pas besoin d'être en 4K pour être à 100% en usage CPU (avec un i5, je précise).
    Fallout 4, AC, Just Cause,...les jeux en mode ouvert fonctionnent vraiment mieux avec un i7 !
    Et ce phénomène se généralise car les consoles ont aussi des CPU à 8 coeur (à moindre fréquence évidemment).
    apollokami posted the 01/07/2016 at 12:53 PM
    Tu as quoi comme CPU ?
    J'ai un i5 3570k à 4.2Ghz (sans toucher au voltage) et pendant un temps je pensais passer au 6600k mais il semblerait que les perfs ne soient pas beaucoup plus élevées en jeu, tout du moins pas assez pour justifier de changer de socket.
    ocyn posted the 01/07/2016 at 12:53 PM
    mustdie La question est simplement de savoir si augmenter la résolution augmenterait la charge CPU. Pas de savoir si il faut un i7 pour jouer aux derniers jeux. C'est un autre débat.
    clash posted the 01/07/2016 at 12:56 PM
    ça dépend surtout du jeu mec!
    ocyn posted the 01/07/2016 at 12:57 PM
    apollokami Aucune utilité à mon sens de changer ton i5 par un autre i5. Tu te sens limité par ton i5 ? Tu joue à 144 fps ?
    clash posted the 01/07/2016 at 12:59 PM
    mustdie il n'y a pas seulement la fréquence des CPU console qui est inférieur, ils (cpu) sont tous simplement beaucoup moins performant

    Mais bon ce n'est pas le débats
    evilchris posted the 01/07/2016 at 01:02 PM
    déjà pour moi la 4K j'attendrais d'avoir un pc pour l'afficher en 60 fps et ça sera sur un écran minimum de 55'...
    ocyn posted the 01/07/2016 at 01:03 PM
    apollokami En réalité, si tu veux changer de CPU, passe sur un i7, ou reste sur ton i5. Entre le i5 3570k et le i5 6600k, il n'y a pas de grosse différence. Le i7 se débrouille mieux dans les open world type GTA V, Dying Light ou les AC.

    Tu te sens limité par ton i5 dans des jeux type GTA V ?
    ocyn posted the 01/07/2016 at 01:14 PM
    apollokami J'ai oublié de répondre à ta question J'ai un i7 4790k (et une GTX 980 ti).
    link80 posted the 01/07/2016 at 01:17 PM
    j'ai un i5 2400 depuis sa sortie et je ne projette pas de changer avant encore un long moment!
    ocyn posted the 01/07/2016 at 01:22 PM
    link80 Il fait encore l'affaire c'est vrai
    apollokami posted the 01/07/2016 at 01:32 PM
    jonnaille En fait je ne pensais pas que les i7 avaient un avantage en jeu par rapport aux i5, en tout cas ce qu'on disait à l'époque mais visiblement ce n'est plus le cas. Donc si je change je prendrai plutôt un i7 ^^
    vyse posted the 01/07/2016 at 01:33 PM
    jonnaille Salut Jonnaille, dis voir un peu HS mais une barrette de 4Go de Ram a cramé sur mon pc (il me reste donc que 4Go) et pourtant je fais tourner les jeux nécessitant des 6 a 8go de ram (arkham knight, AC...) je voulais savoir si c'était normal ou si les éditeur raconte n'imp dans leur config recommandé ? Paske j'ai pas l'impression que les jeux tournent moins bien..
    ocyn posted the 01/07/2016 at 01:38 PM
    vyse C'est normal et les éditeurs racontent n'importe quoi. J'avais fait le test des 4Go dans AC unity, et ça ne changeait rien niveau performances. Après, certain jeux s'amusent à ne pas se lancer si tu n'as pas les 8 go, il me semble qu'un des call of jouaient à ça, mais facilement contournable.

    apollokami A l’époque, il n'y avait pas de différences, mais depuis les jeux multi PS4/One/PC, l'HT des i7 est utilisé, et les i7 font la différence sur les derniers jeux.
    apollokami posted the 01/07/2016 at 01:43 PM
    jonnaille Heureusement que je demande sinon dans un an ou deux j'aurais fait la connerie de repartir sur de l'i5 ^^
    ocyn posted the 01/07/2016 at 01:45 PM
    apollokami Ouai, d'ici un an ou deux tu auras sans doute des i7 encore meilleure, t'as le temps de voir venir. Tu te renseignera mieux le moment venu, mais c'est clair que d'ici là, le i7 serra la norme je pense pour le jeu.

    A une époque lointaine, on disait que le quad core ne servait à rien, que le dual core faisait la même chose en jeu, et entre temps ça a changé.
    vyse posted the 01/07/2016 at 01:45 PM
    jonnaille Lol c'est call of duty 3, je t'ai facilement contourné ca, mais c'est dingue ce bullshit ? je vais un jour faire the witcher 3 et tu crois que c'est pareil niveau perf y'aura aucune diff ?
    ocyn posted the 01/07/2016 at 01:46 PM
    vyse Lol okey. Aucune idée pour TW3, je ne l'ai pas testé avec 4Go de ram, mais à mon avis, il va tourner sans problème avec 4Go de ram.
    raoh38 posted the 01/07/2016 at 01:47 PM
    La 4k avec écran oled mon prochain objectif
    vyse posted the 01/07/2016 at 01:52 PM
    raoh38 l'oled coute une fortune...
    ocyn posted the 01/07/2016 at 01:57 PM
    ocyn posted the 01/07/2016 at 01:58 PM
    raoh38 1500 euros à l'euro 2016, j'achète
    raoh38 posted the 01/07/2016 at 01:59 PM
    vyse oui mais sa se démocratise a une vitesse v grand en deux ans, tu es passé d'une tv 55 pouces 1080p de 10 000 euros a 1500 euros a un certain moment...l'euro 2016 arrive et tu vas avoir des bons prix mais c'est sur qu'il faudra compter au minimum aux alentour de 1500 euros mais l'image est incomparable et la finesse est top.
    jonnaille Le ces a las vegas ma exité avec de superbes nouveaux écrans lg oled uhd hdr de nouvelle gen, panasonic aussi mais samsung et sony pas avant 2017, tout en proposant des uhd full led hdr...un peu cher aussi dans les memes eaux...
    ocyn posted the 01/07/2016 at 02:02 PM
    raoh38 Ouai, ben les seuls à avoir parié sur l'Oled sont justement LG et Pana, normal que les autres sont à la traîne maintenant. J'ai faillie acheté une 4K Samsung, mais en m'informant sur l'Oled, j'ai compris qu'il valait mieux attendre un peu avant d'investir dans un nouvel écran. Je pense que j'irais du coté de LG, je verrais bien.
    raoh38 posted the 01/07/2016 at 02:05 PM
    jonnaille cette année technologiquement s'annonce incroyable dans l'informatique avec les news gpu 14-16 nm avec mémoire ggdr5x et hbm 2, le nouveau processeur zen ( sa fait un moment que j’attends de renouveler mon pc de 5ans ) et dans le home cinéma avec l'arrivée des bduhd dés mars et des tv uhd avec le nouveau procédé hdr oled...sa stagnait comme pour les pc depuis de trop nombreuses années avec leur vieux edge led un peu moisi pour obtenir du contraste....
    Et oui même si c'est dur il vaut mieux attendre..dans les années a venir on va avoir beaucoup de tv oled sous dalles lg qui a massivement investit... et conjointement avec samsung aussi lg vont investir encore des milliards la dessus, sur de nouvelles usines ...
    ocyn posted the 01/07/2016 at 02:16 PM
    raoh38 Ha ouai, t'as l'air de bien suivre tout ça en tout cas, je suis très enthousiaste comme toi
    vyse posted the 01/07/2016 at 02:20 PM
    jonnaille raoh38 on est quand même une sacré bande de geek xD
    ocyn posted the 01/07/2016 at 02:20 PM
    vyse pas faux
    vyse posted the 01/07/2016 at 02:23 PM
    jonnaille mdrr pas grave c'est ainsi depuis l'époque lointaine ou j'étais Pro-N et qu' a 15 ans j’annonçais fièrement dans une cour de récré que je jouais a V.Joe et Tales of symphonia xD (autant dire que je cherchais les ennuis)
    ocyn posted the 01/07/2016 at 02:41 PM
    vyse On a eu le même parcours vidéo ludique on dirait, bon à l'époque j'étais plus sur Mario Sunshine ou Metoid Prime.
    raoh38 posted the 01/07/2016 at 02:57 PM
    vyse j'assume complètement
    jonnaille oui sa fait des décennies que je suis la technologie de tout bord ,quand je me rappelle que les tv panasonic et sony 16:9 cathodique a l'epoque etait le top avec des definitions 480p pesant pour les 92 cm de diagonale (taille géante a l’époque) 90 kg
    Sans parler des magnetos et autre amstrad 6128 ect...
    Actuellement j'ai un pana plasma 65 pouces (et avant un légendaire kuro de pioneer) j’espère passer a du 75 pouces pour le prochain mais je pense que malgré ma très forte envie pour cette année je crois bien que pour un prix raisonnable (bien sur il faudra quand mème tapé haut) sa sera pour 2017
    ocyn posted the 01/07/2016 at 03:01 PM
    raoh38 C'est clair que vu comme ça, la technologie évolue d'une manière impensable.
    Avec mon LCD 107 cm j'suis loin derrière toi Je vise minimum 55 pouces pour le prochain, et oled 4k obligatoire.
    superpanda posted the 01/07/2016 at 03:15 PM
    J'ai lu que les écrans Oled avaient un gros problème de stabilité des couleurs dans le temps : ils vieillissent rapidement. Est-ce toujours le cas?
    ocyn posted the 01/07/2016 at 03:17 PM
    superpanda Aucune idée, j'ai un téléphone avec écran Oled, je verrais bien
    raoh38 posted the 01/07/2016 at 03:21 PM
    superpanda sur les premiere gens oui a cause du bleu mais celle de 2015 et surtout les nouvelles gens de 2016 seront normalement épargnés.De plus sa ne touchait pas tout le monde, la tech est jeune et les soucis sont corrigés comme le marquage (problème que le plasma a eu a ses débuts), c'est pour cela que si je devai prendre une oled sa serait minimum un modèle 2016.
    superpanda posted the 01/07/2016 at 03:37 PM
    raoh38 merci de l'info. Mon plasma samsung de 7 ans marque effectivement beaucoup, mais ça finit toujours par partir!
    Je bave un peu devant tous ces nouveaux écrans, je n'ai qu'un 720p et sur ma one ça pique un peu les yeux par rapport à mon écran pc ips 1080p... d'ailleurs j'ai essayé de brancher ma one dessus, le rendu sur forza et halo est incomparable. Par contre en terme de cinéma j'aime bien le rendu chaud de ma tv par rapport aux lcd... les led je connais pas trop, c'est pas trop "camescope" comme rendu sur les films?
    raoh38 posted the 01/07/2016 at 03:49 PM
    superpanda le rendu lcd est moins doux qu'un plasma , plus "generique" mais c'est quand même du beau spectacle..pour l'effet camescope cela vient des traitements dsp (compensation de mouvement pour une meilleure fluidité des scènes)de chaque constructeur, sur les stand ou les magasins souvent ce mode est mis sur haut se qui donne un effet cmescope meme sur mon plasma, donc je lai mis sur bas et la c'est nickel..
    Pour le lcd il y en a d’excellent se sont les full led, évite les edge led certes très fin mais avec beaucoup moins de diodes led et donc des défauts dont un contraste (couleur sur noir) vraiment pas terrible.
    Le oled c'est le top et le futur des écrans tv, un noir parfait, une conso inférieure ,une finesse incroyable, et les pixels désactivables pour un noir parfaits...
    superpanda posted the 01/07/2016 at 04:43 PM
    raoh38 faudra que j'attende... on va dire dans 4 ans quand j'aurai fini de payer mon appart!
    minicupi posted the 01/07/2016 at 08:14 PM
    techniquement elle consommera forcement plus dans le cpu c'est d'un logique implacable.

    Mais jpense que tu devrais faire une distinction entre une video 4k précalculée ou un affichage calculé en temps reel comme le jeu video.

    Car effectivement dans ce derniere c'est principalement le gpu qui va bouffer.
    psychoroid posted the 01/08/2016 at 12:05 AM
    "Lors d'un débat, un "informaticien chevronné"... "

    mmhh ok.
    mais sinon ta video d'un arbre ( ) je trouve ça assez énorme.
    t'aurais du carrément enregistrer le fait de bouger ta souris sur le bureau windows (t'aurais gagné du temps et nous aussi)

    http://www.youtube.com/watch?v=ZABt8bHgDHo
    "may la 4K ça bouffe rien sur le CPU"
    ocyn posted the 01/08/2016 at 07:42 AM
    psychoroid Ma vidéo d'un arbre n'est pas une vidéo, mais un jeuvidéo. Il est bien question d'utilisation CPU dans un jeuvidéo en 1080p et en 4K. Manque de jugeote ou mauvaise foi ?

    Ta vidéo montre une gestion de SLI. Tu le sais très bien que le processeur i7 4790k propose un pci express 16x et l'autre pci express en 8x. Contrairement au i7-5930K qui propose une gestion du pci express 16x pour les deux cartes graphiques. Rien à voir avec la charge CPU. (tu peux le voir dans la vidéo, le CPU est a 40/50%.
    Je t'avais indiqué qu'en double GPU, un proco différent pourrait faire la différence grâce à la gestion de pci express.

    Donc tu me prouve que tu fais preuve de très mauvaise foi. Ou alors t'as un sérieux problème de compréhension des choses.

    Mais bon, comparer un jeu (Ethan Carter) à un bureau Windows ça ne vole pas haut.
    ocyn posted the 01/08/2016 at 07:47 AM
    minicupi Lorsque tu regarde une vidéo YouTube en 4K, ton CPU va prendre, puisque c'est la partie graphique intégré au CPU qui travail et non la carte graphique. Pour ma part, c'est le cas sur mon PC.

    Mais là je parle uniquement du jeuvidéo. Ma vidéo postée est une vidéo d'un jeu vidéo en 3D temps réel qui s'appel Ethan Carter, tournant sous LUE3 à l'origine, il a été porté sous l'UE4 pour le porter sur PS4, par la même occasion, il a été rendu disponible sur PC sous l'UE4. La version lancée est une version du jeu tournant sous l'UE4 (Unreal Engine 4). Il ne s'agit pas d'une vidéo pré calculé, mais d'un jeu.

    Si tu veux voir du gameplay : https://www.youtube.com/watch?v=i-j7bPzpmvg (prise au pif)
    reecemccarthy posted the 05/13/2021 at 10:06 PM
    I am glad you've shared the details about all the CPU usage here. I want to know the details for the Best 4K Monitor for Programming, and if you share these details soon, I'd be extremely pleased.