top
mais on est plusieurs à vouloir un 5800x 3D
top
mais on est plusieurs à vouloir un 5800x 3D
C'est révolutionnaire ! Mais moi et l'anglais, ça fait deux. Ont-ils donné des chiffres comparatifs ?
Ou bien le truc n'est pas mieux que l'autre en terme de performance, mais il est plus petit, ne prends pas la poussière et ne fait pas de bruit ?
Et demain l'aquajet en remplaçant l'air par de l'eau gazeuse.
interessant le concept, a voir sur le marche ce que ca donnera
Je ne sais pas trop où partager ceci :
Pour ceux qui ne connaissent pas ces fonctionnalités, pensez à activer Nvidia Reflex ou AMD anti lag
AMD Anti-lag ça sert pas à grand chose, ça peut même dégrader les conditions de jeu, je l'avais essayé puis désactivé pour je sais plus quelle raison mais ça marchait mal.
D.Laurent je l'ai désactivé aussi pour tenter de résoudre mes soucis sur Shadow of the Tomb Raider et je me posais la question de le remettre ou pas, ça semble y répondre
De base il vaut mieux désactiver toutes les options AMD sauf le FreeSync (on peut aussi utiliser l'optimisation des formats de surface, le Enhanced Sync et le Radeon Chill).
Si tu veux en tester d'autres ensuite, le faire une par une pour chaque jeu car on peut avoir de mauvaises surprises.
Il me semble que l'Anti-Lag m'ajoutait des saccades à chaque gros mouvement de souris dans PUBG.
Pour limiter le FPS il serait préférable de le faire dans chaque jeu, il me semble que c'est le mieux niveau performances, mais on peut aussi utiliser le Radeon Chill qui est connu pour ne pas ajuter de lag. Il ne faut surtout pas utiliser les autres options de limite de FPS (comme le "contrôle ciblé de fréquence d'image" qui ajoute du input lag).
Et avec le FreeSync (comme le GSync) il faut limiter le FPS à quelques images en-dessous de la fréquence de l'écran.
+1 avec la limitation de la fréquence afin que le GPU ne soit pas à 100-99% mais un peu en dessous pour optimiser l'input lag.
Le top est :
- la limitation implanté dans le jeu (exemple overwatch)
- suivi de la limitation dans les driver (radeon chill ou équivalent Nvidia)
Après les différents tests montrent que Nvidia reflex et AMD anti lag font le taf.
Je n'avais pas rencontré de soucis quand je l'avais testé. Mais ce n'est pas une généralité
Avec un écran 60hz, en général t'as juste a activer la V-sync. Ca te limite très efficacement les FPS et donc l'usage de la CG (moins de chauffe, moins de bruit, moins de conso)
Ca a même le mérite d'avoir un rendu hyper fluide, sans saccades ou images déchirées.
Même en VR, quand ma Cg peux atteindre les 80fps de mon Rift S, je force l'asynchronus spacwarp, pour rester à 40 fps et interpoler les 40 autres.
Après pour la Vsync, je me souvient quand même qu'à l'époque (je sais pas si ça a changé) ça ajoutait du gros inputlag sur R3E... Mais c'était bien le seul
Le V-Sync ajoute du input lag sur beaucoup de jeux, contrairement au FreeSync/GSync, c'est généralement déconseillé de l'utiliser à moins d'être sûr que le jeu le gère bien. Par exemple ACC le gère bien sans input lag.
Sinon la raison pour laquelle il faut limiter le FPS en FreeSync/GSync c'est surtout parce que sinon cette technologie ne marche pas, tout simplement. 150 de FPS sur un écran FreeSync 144 FPS et le FreeSync sera comme désactivé.
Rach Effectivement pour un écran non freesync/Gsync, il n'y a pas 36 solutions.
Toujours est-il que Vsync = plus d'input lag
De même que peu de Fps = plus d'input lag, c'est l’intérêt des 80fps par rapport au 40fps
Mais on s’éloigne du thème de la vidéo qui est "Lowest input lag PC spec" Car sur ce sujet un simple ecran 60hz, c'est
Après Amd et Nvidia ont développé des V-sync améliorées notamment pour les ecrans FreeSync/GSync
Mais il reste préférable de limiter les fps.
Mr Gordon Moore nous a quitté
L'uploader doit s'appeler Olivier et il aime faire chier les étrangers ;
sinon, à quoi bon bloquer une vidéo !
ça bloque le signal les icebergs, c'est normal attends juillet
R3dF0x c'est pour moi ton message
Non. predator06
Le nom Olivier, c'est pour faire rimer avec "chier" et "étranger" Ça passe mieux
J'vais ajouter son pseudo dans mon message pour éviter toute confusion ...