Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Modérateurs : Aer, Equipe forum MATA-WEB Jeux vidéo : Amis des pixels ou de la Next generation bienvenues !

Retourner vers Jeux vidéo

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Mar 19 Mai 2015, 00:53

En effet, une désinstallation clean (via le logiciel proposé par Matto ou simplement via le gestionnaire de périphérique et reboot) et une reinstallation devrait faire l'affaire à mon avis.

GeForce Experience pourrait te permettre de rester continuellement à jour au niveau des drivers (quoi que celui pour Witcher 3 est sorti aujourd'hui donc tu n'avais pas de retard) en les téléchargeant/installant pour toi.
Par contre je déconseille fortement sa fonctionnalité d'optimisation des jeux, car quand je vois ce qu'il me propose ... j'en rigole encore.
Image

Avatar de l’utilisateur
Deathmes
Ryo versus Massue
 
Messages: 931
Inscription: Ven 11 Mai 2012, 19:49
Localisation: Nantes

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Deathmes le Mar 19 Mai 2015, 03:31

Merci pour vos reponses, mais je ne pourrais essayer que demain malheureusement. Par contre, je passais bien par Geforce Expérience.

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Mar 19 Mai 2015, 10:00

Arf, bizarre que l'installe est figée, mais du coup le driver ne doit pas être corrompu vu qu'il fait un check (du hash) du fichier avant de lancer l'installation.
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Mar 19 Mai 2015, 11:23

Faites attention, détenteur de GTX 770 (et plus dans cette génération) et d'AMD, désactiver Gameworks (HBAO et Hairwork) pour The Witcher 3 car les performances sont alors fortement grevées si on a n'a pas de GTX 9XX, sinon faîtes vous plaisir. Source
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Mar 19 Mai 2015, 12:04

Pour AMD c'est plutôt normal (c'est la même chose que pour le TressFX d'AMD).
Pour NVidia, c'est surtout lié aux perf en tessellation des GPU Maxwel.

Tiré du guide de perf Witcher 3 sur le blog NVidia :
Do note, Maxwell GPUs are up to three times faster at tessellation than previous-generation GPUs, so you may experience lower HairWorks performance on other graphics cards due to the extensive use of tessellated hairs.


Mais il faut avouer que même si le rendu apporte un gain visuel indéniable s'il est activé sur autre chose que le héros (avec et sans ... les boss de Bloodborne s'en sortent pas trop mal dans ce domaine en fait !), le coût en framerate reste assez conséquent, même sur une config en Maxwel (entre 10 et 20 fps selon les cas).
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Mar 19 Mai 2015, 17:02

Je me rappelle que TressFX était une horreur sur cartes NVidia à la sortie de Tomb Raider mais je crois avoir lu que ça s'était amélioré depuis. C'est toujours pas le cas ?
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Mar 19 Mai 2015, 17:29

TressFX étant une techno AMD, donc libre d'implémentation contrairement aux technos NVidia, mais pensé pour son architecture GCN, il y avait forcément un impact sur cartes NVidia à l'époque de son apprition.
Mais on ne peut pas dire non plus que l'impact était négligeable sur cartes AMD.

Sur ma conf (GTX 970 couplé à un vieux GPU qui n'était pas pour autant maxé sur ce jeu) je perdais un peu moins de 20fps la dernière fois que j'ai testé sur Tomb Raider. Mais entre la perte non négligeable de perf et l'effet tout sauf réussi (Lara Croft passe alors le plus clair de son temps la tête cachée à l'intérieur de sa queue de cheval), j'ai eu vite fait de retirer cette options histoire de pousser d'autres effets plus sympa.

Hairwork est plus au niveau de TressFX 2 qui a été dévoilé il y a quelques mois.
Encore une fois, il est dommage qu'il n'y ait pas de consensus sur implémentation de technos similaires, mais bon, sans réelle concurrence, il n'y aurait pas non plus autant d'innovation.
Et il faut reconnaitre qu'AMD est à la traîne en ce qui concerne le soutient et l'implications avec les devs
Dernière édition par Sch@dows le Mar 19 Mai 2015, 17:34, édité 1 fois.
Image

Avatar de l’utilisateur
Mattosai
Nanakiroxxe Cultist
 
Messages: 4863
Inscription: Ven 06 Avr 2007, 23:36
Localisation: A l'auberge

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Mattosai le Mar 19 Mai 2015, 17:30

Je confirme, ayant "juste" une 770 que le HairWorks, même sur Geralt uniquement, fait sacrément ramer le tout :evil:

Faire des concessions sur la végétation ou sur le flou (dynamique ou pas) ne me dérange pas, voire les ombres (en revanche aniso/textures/aliasing, je suis intraitable :twisted: ) là c'est un peu dommage j'aime bien sa coiffure avec :mrgreen:
Image

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Mar 19 Mai 2015, 17:45

Une des meilleurs innovations de NVidia ces derniers années (à mon sens) reste les ombres douces (telles qu'on peut les voir dans Assassin's Creed Unity).
Voir sans arrêt des ombres d'une telle netteté qu'on les croyait découpées au laser, me sort régulièrement de l'immersion dans certains jeux.

Le HairWorks et TressFX 2 apportent un énorme gain visuel pour tout ce qui touche aux cheveux et poils, mais contrairement aux ombres douces, le coût est beaucoup trop grand pour l'instant.
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Mar 19 Mai 2015, 18:16

Sch@dows a écrit:Et il faut reconnaitre qu'AMD est à la traîne en ce qui concerne le soutient et l'implications avec les devs

GDDR3 puis 5, HBM maintenant. Mantle, qui a donné Vulkan et fortement inspiré le DirectX 12... :twisted:

Non, c'est juste que comme tu le rappelais, AMD soutient les jeux AMD Gaming Evolved (Firaxis, EA, Square Enix, etc.) alors que NVidia travaille avec les "The Way It's Meant to be Played" (Ubi, WB, CD Projekt, etc.). S'ils pouvaient bosser de concert ça serait cool mais il faut qu'ils se mettent en avant alors ils font des bagarres de cours de récré. Y'a qu'à voir l'Adaptative Sync où tu as G-Sync d'un côté et Freesync de l'autre histoire de bien t'enfermer dans une marque.
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Mer 20 Mai 2015, 10:06

Oui, AMD aura vraiment fait bougé les choses, en particulier chez Microsoft qui annonçait après dx11.1 que ce serait la dernière évolution de dx sur pc.
Après j'évaluais surtout les gimmick sortis ces dernières années.

Pour mon commentaire, cela concernait moins l'intégration de leur features dans les jeux que tout simplement le fait d'avoir des drivers adaptés à la sortie d'un nouveau jeux.

Pour le dernier "fiasco" en date, projet cars, ils se sont quand même permis de balancer que c'était les devs qui avaient volontairement bridés les perfs sur leurs cartes ... en oubliant que le forum de développement est seulement semi privé, et que prêt de 50 000 personnes peuvent vérifier par eux même qu'ils ont été invité maintes fois a travailler avec les devs (qui sont sur l'optimisation AMD depuis près d'un an), mais ne se sont impliqués qu'une seule fois il y a environ 6 mois.
Bizarrement aujourd'hui, AMD indique travaillé sur un nouveau driver pour le jeu.

Le problème c'est que c'est souvent comme ca avec eux. Pourtant leurs produits ne sont pas vraiment mauvais (manque peut être d'optimisation software et si ca pouvait moins chauffer aussi), leur politique de partage est ouverte et leurs prix corrects.
Dernière édition par Sch@dows le Mer 20 Mai 2015, 15:28, édité 1 fois.
Image

Avatar de l’utilisateur
Deathmes
Ryo versus Massue
 
Messages: 931
Inscription: Ven 11 Mai 2012, 19:49
Localisation: Nantes

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Deathmes le Mer 20 Mai 2015, 15:26

Bon ben problème réglé, mon frère a trouver une solution alternative en passant par la gestion des programmes car apparemment le lien de Matto marchait pas. Mais merci quand même pour le coup de main. :)

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Jeu 21 Mai 2015, 10:35

Bon, je préviens, là c'est pour les geeks barbus : Hardware.fr, comme d'hab' le plus sérieux sur le sujet, a fait une présentation de la mémoire HBM. Pour ceux qui débarquent, c'est le nouveau type de mémoire qui équipera la plupart des nouveaux GPUs désormais (les plus chers d'abord puis on descendra dans la gamme) puis les APU et même peut-être en support sur les CPU (en cache mémoire L3 ?) à terme.

C'est le gros argument marketing (mais de là à dire que ce sera pertinent sur des produits de jeunesse...) d'AMD pour ses nouvelles cartes graphiques prévues le mois prochain et ça débarquera l'année prochaine chez NVidia.
Avantages :
- Un bus de données énorme : 50% de plus qu'une Titan X avec la HBM de première génération et, dès l'année prochaine, ça devrait être encore doublée.
- Des cartes qui devraient être plus petites et plus simples.
- Une consommation moindre qui sera probablement réutilisée pour booster un peu plus les GPU.
Inconvénients ?
- Il va falloir retravailler pas mal les drivers pour exploiter cette bande passante. C'est pas gagné avec AMD :mrgreen: mais c'est peut-être pour ça qu'ils n'ont rien sorti depuis des mois.
- Qui dit produit jeune dit produit cher, la HBM va douiller.
- C'est flou pour l'instant et AMD ne fait rien pour éclaircir ça mais la quantité sera limitée : 4 (ou 8 mais ce n'est pas confirmé) Go cette année. On aura en revanche le double l'année prochaine.

C'est cette mémoire là, couplée à la nouvelle finesse de gravure 16nm tant attendue (4 ans qu'on se traine le 28nm, le 20 n'a jamais existé) qui permettra de s'amuser en 4K et autres casques de réalité virtuelle sans devoir baisser les effets. Premiers éléments de réponse dans quelques semaines.
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Jeu 21 Mai 2015, 11:19

A l'instar de la GDDR, j'ai du mal a voir l'intérêt de cette mémoire en tant que RAM principal. Si la bande passante est appréciable, ce n'est pas le point le plus importante pour une mémoire système qui est plus demandeuse en latence extrêmement faible.

Enfin bon, tout ça c'est beau sur le papier, mais j'attends quand même de voir dans les faits. Il est rare qu'une carte passe son temps à attendre les accès mémoire aujourd'hui (il faut dire que les jeux sont dimensionné pour éviter ce cas de figure aussi).

Mais comme d'hab, les nouvelles techno sont souvent inabordable lors de la première génération, et comme tu le sous-entends, AMD et l'optimisation software, ce n'est pas le grand amour ...
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Jeu 21 Mai 2015, 11:35

Sch@dows a écrit:A l'instar de la GDDR, j'ai du mal a voir l'intérêt de cette mémoire en tant que RAM principal. Si la bande passante est appréciable, ce n'est pas le point le plus importante pour une mémoire système qui est plus demandeuse en latence extrêmement faible.

Ce n'est plus vraiment le cas et surtout pour un APU où la mémoire est partagée : le GPU est aujourd'hui bien plus bridée que le CPU par la mémoire. Un APU n'a pas pour but de remplacer les gros CPU mais bien d'offrir une solution clé en main pour les HTPC... ou des consoles de salon. Et avec ARM qui commence à titiller le X86 sur ce marché là (au moins pour le HTPC), il faudra évoluer ou mourir.

Sur les CPU, ça ne remplacera pas la mémoire principale mais ça pourrait remplacer la eDRAM qui fait office de tampon entre le CPU et la DDR. L'équivalent concurrent HMC (mémoire stackée elle aussi) sera sur les processeurs Intel Xeon Phi destinés aux super-ordinateurs.
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Jeu 21 Mai 2015, 11:48

Non mais le HTPC on s'en tape, car les spec actuelles lui suffise amplement pour l'utilisation à laquelle il est destiné.

Après, je ne me suis pas encore penché sur les comparatifs de latence, donc je ne peux pas trop jugé si cette HBM peut à terme venir remplacer l'eDRAM dont c'est pourtant l'avantage principal.
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Ven 22 Mai 2015, 16:47

Tiens, ça se précise. NVidia a officialisé la GTX 980 Ti (Titan X "castré" avec 6Go de RAM) qui devrait sortir début Juin mais pour ne pas leur laisser le champ médiatique libre AMD tweete une photo de la R9 390X, dont le rad de référence sera bien du watercooling a priori. Aucun bench de part et d'autre bien sûr. Source

Bon, pour la bataille de court de récré, c'est loin d'être fini faut croire. :mrgreen:
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Ven 22 Mai 2015, 16:57

En même temps, la compétition a aussi du bon (mais pas que).

Un peu surpris qu'ils en viennent au watercooling dès la première génération, AMD a toujours été derrière en matière de consommation et de températures sur sa génération de carte GCN (Radeon 7000 et suivantes), mais je pensais que l'arrivée d'une nouvelle finesse de gravure permettrait de repartir de plus bas (les R9 290(X) approchaient quand même les 100°C).
Dernière édition par Sch@dows le Ven 22 Mai 2015, 17:39, édité 1 fois.
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Ven 22 Mai 2015, 17:30

Ah non pas toujours. Jusqu'à l'époque des 5000, les Radeon étaient meilleures sur ce point que les Geforce qui étaient alors critiqués là-dessus (remember la GTX 480 à 90°), c'est à partir des 7000 (l'archi GCN déclinée depuis) que le rapport s'est inversé et Maxwell a fini de creuser encore plus l'écart.

Là je les vois mal réussir le même coup que NVidia (ils l'auraient teasé sinon) car ils ont un sacré retard à rattrapper mais si la puce risque de bouffer, le watercooling est peut-être là pour garder une carte petite. Regarde la photo, on dirait une version mini-ITX, ce qu'elle est peut-être. C'est l'avantage d'HBM d'avoir un PCB plus court mais le refroidissement à air aurait fait perdre cet avantage. Les partenaire sortiront probablement des modèles classiques à ventilo.

Par contre attention, je te sens confus : ce n'est pas une nouvelle finesse de gravure. On reste sur du 28nm, sinon là aussi ils l'auraient déjà annoncé. Quoiqu'il y a bien le 20nm de dispo chez GloFo (mais apte pour du GPU ?) fondeur des CPU AMD... ça serait un sacré coup mais j'y crois pas trop.
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Ven 22 Mai 2015, 17:47

J'ai corrigé mon poste précédent suite à tes dires sur les températures des anciennes cartes (je dois avoue que j'ai commencé à me réintéressé au hardware pc que vers les 6000.

Pour la finesse de gravure, j'avais simplement oublié que NVidia et AMD avait décider de se passer du 20nm.
Il me semblait que le saut de la génération 800 chez nvidia était un signe qu'une grosse révolution (souvent révélateur d'une nouvelle gravure) allait débarqué l'année d'après avec le fameux cap des 1000 (ou le nom que cette génération aura), mais il semblerait que l'on reste finalement sur du 28nm pour au moins un ou 2 cycles de plus.
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Ven 22 Mai 2015, 18:38

Deux cycles j'espère pas. On se traine le 28 nm depuis 4 ans ! A priori les deux devraient attaquer le 16nm l'année prochaine, au moins sur le haut de gamme. Pas dit qu'ils restent chez TSMC en revanche. NVidia pourrait faire risette à Samsung (qui fabrique déjà les Tegra il me semble) et AMD chez GloFo mais tout ça est encore hautement spéculatif.
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Mattosai
Nanakiroxxe Cultist
 
Messages: 4863
Inscription: Ven 06 Avr 2007, 23:36
Localisation: A l'auberge

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Mattosai le Ven 22 Mai 2015, 19:16

De mon coté , j'attends tranquillement que le monstre de l'espace sorte avant de repasser à la caisse, encore que, je me demande maintenant si disposer d'un i5 ivy va s'avérer suffisant, de plus en plus de configs recommandées mentionnent les i7 , qui disposent de l'hyper-threading, la question étant, les jeux exploitent-il déjà ou exploiteront-il vraiment ce procédé ? pas trop envie de changer mon i5 3570k ivy pour le moment, surtout vu la banane que coutent les i7...

Mais là où je commence à me noyer c'est si on arrive à une situation ou certains effets , genre Hairworks , sont plus ou moins gérés par le CPU (Haswell) et non le GPU (sauf avoir une 970+ visiblement) ... ?

Ma 770 qui n'est pourtant pas vieille (mais qui ne dispose que de 2Go de Vram, ce qui semble être une faiblesse maintenant pour le cache des textures qui montent en résolution ~~ ) , se fait baiser par un effet , soit parce qu'elle ne le gère pas nativement et que j'ai pas un core Haswell pour compenser (si j'ai bien pigé les posts précédents) , soit parce que j'ai pas une nvidia dernière gen (qui gèrerait mieux nativement cet effet et ne nécéssite pas un cpu de la mort... je commence à m'y paumer dans le rôle de chaque partie...).

De toutes façons ce qui est sûr c'est que je passerai à une carte comp. DX12 à la sortir de W10 , mais en supposant qu'on aie une super carte haut de gamme dans un an ou deux, en 16nm , dx12 et tout le tralala (encore que j'aime pas prendre la premiere génération de GPU concernant un nouveau support logiciel/matériel, en général je prends toujours la V2 ou la gen au dessus qui corrige souvent des ptit soucis) , je me pose encore la question sur la validité de mon proc à ce moment là...
Image

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Ven 22 Mai 2015, 19:43

Oublie l'i7.
Si elle apparait généralement dans les config recommandé, c'est purement marketing. Si tu regarde les tests, la différence est négligeable, et même parfois négative par rapport à l'i5.

L'hyperthreading n'est utile que pour les thread qui n'exploiterait pas efficacement un core. C'est le cas en bureautique, encodage, compression et j'en passe (c'est d'ailleurs pour cela que les CPU sont testé sur ce genre d'application pour en voir les différence).
Pour un jeu cela ne sert quasiment à rien puisque le core physique est déjà pleinement occupé ou presque, et il devient alors inutile de l'attaquer via 2 points d'entrée (les cores virtuels qu'apporte l'hyperthreading). Pire, dans certaines situation où un coeur physique est vraiment occupé à 100% (ce qui est rare je te l'accorde), le fait de devoir de basculer d'un core virtuel à l'autre fait perdre du temps.

Économise la différence de prix entre un i5 et un i7 et met là dans le GPU.

Les effets ne pouvant tourné sur ton GPU, il vaut mieux les désactivé simplement. Le CPU n'est pas fait pour, et se ne peut aboutir qu'à un désastre en terme de perf.
Mis à part dans certains type de jeux faisant tourné des algorythme lourd sur le CPU (genre les simulation), le CPU n'est pas vraiment un goulot d’étranglement dans les jeux, et le sera encore moins avec DX12.
D'ailleurs, je précise au passage que contrairement aux précédentes itérations de DX, les plus grands apport de DX12 ne concerne pas des techno visuels, mais plus l'architecture même de l'api, notamment la réduction des fameux overhead qui permettront de soulager les CPU quand ces derniers demandait l'affichage, et la gestion de la mémoire qui permettra de l'exploiter plus finement comme c'est déjà le cas sur console (et ouvrira la voix à la mémoire unifié sur PC aussi).
Ta carte étant déjà compatible DX12, tu changeras probablement à cause des effets (qui t'intéresseront) qui ne seront supporté que par tel ou tel constructeur.

Il est dommage que DX n'est pas pris la décision d'imposer un standard cette fois ci.

Bref, inutile de changer de CPU tant que l'architecture n'est pas profondément refondue (ce qu'est censé être la promesse de Skylake ... on verra bien).


Afloplouf a écrit:Deux cycles j'espère pas. On se traine le 28 nm depuis 4 ans ! A priori les deux devraient attaquer le 16nm l'année prochaine, au moins sur le haut de gamme.
En début d'année dernière, il était encore question de 20nm, avant que celle-ci soit définitivement annulée en milieu d'année, tout en cherchant à rassuré avec des affirmation du genre "il y a encore de l'optimisation à faire sur le 28nm".
Je pense donc qu'on va minimum y avoir droit encore 1 an, mais je serais content de me tromper sur cet aspect.
Image

Avatar de l’utilisateur
Afloplouf
Apprenti Kirin
 
Messages: 1011
Inscription: Lun 12 Avr 2010, 13:24

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Afloplouf le Ven 22 Mai 2015, 20:05

Sch@dows a écrit:Bref, inutile de changer de CPU tant que l'architecture n'est pas profondément refondue (ce qu'est censé être la promesse de Skylake ... on verra bien).

Que ça t'empêche pas de dormir, je doute qu'on aura plus de 5-10% de mieux que Haswell. Il faut espérer qu'AMD compense un peu son retard (y'a du boulot) avec sa nouvelle archi' Zen prévue l'année prochaine histoire de donner un coup de fouet au secteur car pour l'instant Intel se tourne les pouces et concentre tous ses efforts sur les Atoms et la très basse consommation.

Après, comme tu le rappelles, les Core i5, même des générations précédentes, sont plus que suffisants pour le jeu. Et Direct X 12 devrait encore plus arranger la chose donc on est parti pour ne changer que pour l'USB 3 Type C quand il sera démocratisé.
Image
"Une fréquentation même irrégulière des sites et des forums de la Toile laisse sur un malaise. C'est qu'y règnent souvent la sottise et l'intolérance. On est sûr d'avoir raison contre le reste du monde puisqu'on est entre soi." Gérard KLEIN

Avatar de l’utilisateur
Sch@dows
Emperor of Schumiland
 
Messages: 13188
Inscription: Mer 11 Avr 2007, 12:12

Re: Sujet des Geeks avec (ou sans) lunettes : Parlons Hardware

Messagede Sch@dows le Ven 22 Mai 2015, 21:04

Oui, cela ne se ressentait probablement pas à la lecture, mais j'étais quelque peu sarcastique quand je parlais de la révolution promise par Skylake.

Quant à l'évolution des CPU et leur importance pour le jeu vidéo ... pour dire, je suis quand même actuellement avec un Intel Core2 Quad Q6600 de 2008 (overclocké à 3,4GHz), et franchement le seul jeux qui m'empêche de jouer dans des conditions correcte en ce moment sont Assassin's Creed (tous les core à 100% fixe) qui est injouable une fois le prologue terminé quelque soit les options graphiques (j'ai le même frame rate en 720p low qu'en 1080p ultra).
J'ai des difficulté à resté à 60fps sur Project CARS qui taxe énormément mon CPU avec sa physique et son IA (et le peu de PhysX qui est utilisé obligatoirement sur le CPU), mais en réduisant des options gourmandes en drawcall, je m'en sort bien.

Le reste de ce que j'ai testé tourne généralement à fond (1080p puisque je joue sur une TV) en ultra ou presque.


J'attends impatiemment une grosse rentrée d'argent dans les prochains jours pour valider ma commande du reste de ma config (tout sauf le GPU et l'alim).
Image

PrécédenteSuivante


Retourner vers Jeux vidéo

Qui est en ligne

Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 9 invités