Je m'inquiète pas pour eux hein...
Oui mais Nvidia a tout de même décidé de suspendre pendant 15 jours le caviar et le homard au menu du restaurant d’entreprise. C’est quand même un signe que ça va très mal.
Je m'inquiète pas pour eux hein...
Oui mais Nvidia a tout de même décidé de suspendre pendant 15 jours le caviar et le homard au menu du restaurant d’entreprise. C’est quand même un signe que ça va très mal.
Afficher plus...
- Leurs solutions propriétaires (g-sync, Raytracing, dlsss 2.3) ne sont plus très attractives.
Pour les jeux et les cartes compatibles, le ray-tracing rend les images plus belles mais plombe les FPS.
Pas grave, on invente de DLSS qui fait retrouver les FPS en rendant les images plus moches. On tourne en rond.
Et la solution matérielle de nvidia nécessite des tensor core implémentés dans leurs cartes qui coûtent cher et consomment, ce qui n'est pas trop dans l'air du temps.
...
- Le ray tracing ca me rapelle enormément le Physx , plein de videos pour montrer les benefices , ca a commencé en 2008 , et pour finalement une 50aine de jeux (et encore , pas mal de titres "repetitif" ) , je ne me souviens pas avoir entendu quelqu'un me dire "je prends une nvidia pour le physx". je ne sais meme pas si des jeux recents l'utilise encore ?
- Et pour le Dlss , pour avoir comparé recement "visuellement", je trouve que le Fsr , sur carte Amd (détail important) , a niveau "équivalent" de reglage donne un meilleur resultat visuel (et ca marchait pas mal du tout avec la dll openvr_fsr sur des jeux) . Par contre coté fps je n'en sais rien car ma rtx3070 actuelle est plus puissante que la 5700xt que j'avais donc forcément ce n'est pas comparable.
Mais ceci dis le dlss, tant qu'on en abuse pas , ce n'est pas trop moche non plus. Mais la je parle de ACC sur écran, je n'ai aucun autre jeu qui permette de le tester , c'est vrai que ce choix fsr/dlss se fait quand meme attendre sur nos autres simus. (a par trackmania je ne joue a rien d 'autres sur pc)
Je pense qu'a tarif equivalent , on a quand meme maintenant une offre assez cohérente entre les deux marques. Reste a sauter sur les bon coups pour grapiller des places dans le classement des cartes graphiques
je ne sais meme pas si des jeux recents l'utilise encore
on le voit encore dans les options de certains jeux voir même dans le générique du lancement du jeu quand il te donne toutes les sociétés qui ont permis de le faire.
On est tellement habitué aux physiques "réalistes" qu'on n'y prête plus attention. et tous les jeux n'en ont pas besoin.
Alors on va corriger quelque truc.
- Le DLSS est meilleur que le FSR et n'impact plus du tout la qualité graphique, il lui reste juste quelque leger bug a corriger, genre un leger flou sur les objet en mouvement
Cyberpunk et Deathloop c'est les meilleur exemple a ce sujet :
Le DLSS, pour moi, c'est toujours un impact négatif sur la qualité visuelle. Dans Acc qu'elle horreur !!
Je suis anti DLSS pour ma part, je trouve que j'ai en face de moi une omelette baveuse Je préfère au pire basculer en 1440P tous à fond par contre le RT j'avoue que c'est assez impressionnant malgré son jeune âge.
Je pense que les RTX 4xxxx seront une vrai avancé comparé au 3xxx, je ne regrette qu'une chose de la prochaine génération c'est sa consommation, ce qui pour moi est un frein pour je pense beaucoup de futurs acheteurs.
Maintenant le mieux c'est d'attendre l'officialisation, car les on-dit on c'est quoi en penser.
Je suis anti DLSS pour ma part, je trouve que j'ai en face de moi une omelette baveuse Je préfère au pire basculer en 1440P tous à fond par contre le RT j'avoue que c'est assez impressionnant malgré son jeune âge.
Je pense que les RTX 4xxxx seront une vrai avancé comparé au 3xxx, je ne regrette qu'une chose de la prochaine génération c'est sa consommation, ce qui pour moi est un frein pour je pense beaucoup de futurs acheteurs.
Maintenant le mieux c'est d'attendre l'officialisation, car les on-dit on c'est quoi en penser.
On connais rien des consommations des RTX 4000, et les "leaker" comme Greymon ou Kopite7Kimi (les plus grosse source de site hardware) sont des charlatant qui sont juste des source a clic depuis des années. (et tout le monde le sait, mais ca fait parler, ca génére du clic, et donc de l'argent, et au final, tout le monde s'en fout que ca soit des conneries)
Et en plus c'est "guignole", j'ai pas d'autre terme, confonde Watts TDP (donc dégagement de chaleurs) et consommation, pour des "spécialiste", ça la fou mal.
C'est comme si quelqu'un te disait qu'il a des source chez Ferrari pour les moteur, qu'il t'annonce le prochain V12 Ferrari avec des chiffre, mais qu'il confond dans le meme temps couple et puissance
Ils font que brassé du vent, et pour certain ils sont même pas a 20% de leak correcte, c'est vraiment une vaste blague
Pour le DLSS dans Assetto Corsa j'ai pas tester, mais c'est surement le pire exemple pour le DLSS car justement les objet en mouvement sont la faiblesse du DLSS/FSR, ca sera corriger avec le temps. (surtout le DLSS qui utilise le Deep Leaning d'IA si jamais, donc l'IA apprend en continue, jeux par jeux)
Oui c'est ce que je dit les "on-dit", c'est pour cela que j'attends la meilleur source, les propres créateurs.C'est une valeur sur
Je n'écoute pas les Leakers, influenceurs qui rien que pour le terme me fait penser juste a des manipulateurs qui dirige des influençables pour ma part et qui d'ailleurs eu même ce nomme de se propre terme d'influenceurs.
C'est d'ailleurs bien dommage car ils existent beaucoup de passionnés qui sont instructifs sans tomber dans le vice de chercher le buzz ou like a la con qui sont d'ailleurs mit en premiers visuellement et engrange encore plus d'absurdité dans ce monde.
Désolé pour le coup de gueule, mais fallait que cela sorte.
Je vous aime
confonde Watts TDP (donc dégagement de chaleurs) et consommation, pour des "spécialiste",
Pour mon info personnelle, l’écart entre les 2 est de l’ordre de combien (en %) ?
Pour ACC, je confirme que ce qui tue l’immersion, ce sont les voitures (surtout en virage) au loin qui sont floues et/ou clignotent
J'ai refait un essai récemment, et même en Dlss qualité, les voitures au loin ne sont plus qu'un nuage de points !
Et puis je trouve que les couleurs également perdent leur naturel.
surtout le DLSS qui utilise le Deep Leaning d'IA si jamais, donc l'IA apprend en continue, jeux par jeux
Que veux-tu dire par là exactement "l'ia apprend en continu jeux par jeux" fayte ?
Est-ce à penser que le dlss s'améliore de lui-même au fur et à mesure qu'on l'utilise dans un jeu ?
Moi le DLSS sur les jeux que j'utilise je trouve ça très bien. Je pourrais plus vraiment jouer sans (dans les jeux en questions)
Que veux-tu dire par là exactement "l'ia apprend en continu jeux par jeux" fayte ?
Est-ce à penser que le dlss s'améliore de lui-même au fur et à mesure qu'on l'utilise dans un jeu ?
Deep Learning Super Sampling, ce qui signifie que c'est une IA En français = Super Échantillonnage et Deep Learning est une expression qu'on peut pas vraiment traduire mais c'est pour signifier que l'IA apprend continuellement. Littéralement ça donne "Apprentissage Profond" ce qui ne veut rien dire en français.. En français on pourrait dire "Boucle Perpétuelle d'Apprentissage" par exemple (mais ça ne se traduit plus par Deep Learning ).
Pour ta deuxième question : Oui c'est le but
@XtaZiiy tu vas bientôt pouvoir le tester sur Flight Simulator
Oui normalement pour la SU10 justement j'attends ça avec impatience comme DX12 mais ça je crois qu'on peut toujours attendre....
Oui mais, qu'est ce qui s'améliore dans le Dlss au gré des parties jouées : son efficacité sur les FPS je suppose et non pas le rendu visuel ?
Que veux-tu dire par là exactement "l'ia apprend en continu jeux par jeux" fayte ?
Est-ce à penser que le dlss s'améliore de lui-même au fur et à mesure qu'on l'utilise dans un jeu ?
En gros Nvidia et les dev font tourner leur jeux en continue avec l'IA qui gére le DLSS et elle a apprend en continue et corrige avec un peut d'assistance humaine bien sur.
Quand elle a suffisamment progresser, nvidia sort une update que les dev doivent ensuite appliquer a leur jeux.
Et oui, le DLSS a du mal a bien upscale les pixel avec beaucoup de mouvement, les jeux de course sont forcement très impacter.
Pour expliquer grossièrement le DLSS :
L'IA vas avoir une image dans une résolution plus faible, par exemple 1920x1080, qu'elle vas agrandir (upscale) dans une résolution plus élevée, genre 2560x1440, mais pour çà, elle doit "prédire/deviné" certain pixel, car forcement, elle va "simulé" les pixel manquant nécessaire pour agrandir la résolution.
Quand tu comprend le principe de fonctionnement du DLSS, tu te doute bien qu'une image en mouvement continue, c'est la pire chose pour elle.
Son optimisation globale. Elle apprend de tes réglages et habitudes de jeux, résolutions etc... Et elle optimise au mieux en fonction des phase de jeu et de ce que le PC doit gérer en temps réel. Donc plus tu joues avec plus c'est fluide. Les FPS c'est pas vraiment sa target, sa target c'est que le framerate soit stabilisé en toute circonstances même les plus contraignante avec les réglages les plus optimaux que tu lui demandes et elle compense les manques. Mais pour ça faut bien qu'il rencontre ces situations au moins une fois pour savoir comment réagir à l'avenir en fonction... Évidement ça c'est géré et testé en amont sur des machines chez eux..
Tu as des jeux qui propose plusieurs "options" de DLSS par exemple graphique avant tout, performance avant tout etc.. Lui il observe ce qui se passe quand il fait ce que tu lui demandes et ajuste en temps réel quand ça devient trop gourmand ou qu'il a de la marge pour pousser +.
Moi j'ai jamais visuellement de downgrade graphique dans mes jeux ou je l'utilise, du moins je le remarque pas puisqu'il le fait certainement sur certains trucs de temps à autre. Après ACC c'est le pire exemple d'optimisation d'un jeu et en+ c'est très difficile pour le DLSS de gérer autant d'assets en mouvement puisqu'il doit calculer et compenser en permanance. Je pense que pour les jeux de courses c'est pas encore assez au point. Mais du reste j'ai aucuns problèmes en simu de vol par exemple.
je ne pense pas qu'il y ait une amélioration avec l'expérience du jeu. Du moins pas continue.
Le principe est de passer à une résolution inférieure pour gagner des FPS et l'I.A. recalcule les pixels en vue d'améliorer l'image.
Il peut y avoir une mémorisation des calculs pour améliorer les perfs.
Pour direct X12 dans MSFS il y a déjà eu des améliorations, au départ c'était la cata mais actuellement j'ai plus ou moins le même nombre de FPS avec dx11 ou dx12. On devrait avoir une MAJ de DX12. reste à voir le rapport perfs/bugs.
Bon après j'ai pas de problèmes majeurs pour faire tourner Acc : je suis à 90-100 FPS constants mais sans les ombres en ultra sinon, je trouve le drop trop sévère.
Hors les ombres en élevé et c'est cette fichue impression que les voitures lévitent qui me saute aux yeux. Alors je tente parfois le dlss pour les plaisirs des ombres portées au top...mais ça ne me va pas sur le reste, je ne tiens pas plus d'1 race ou 2.
Du coup moi je connais déjà le futur : le dlss 3.0 chez moi s'appelle 4080ti
Pour mon info personnelle, l’écart entre les 2 est de l’ordre de combien (en %) ?
Pour ACC, je confirme que ce qui tue l’immersion, ce sont les voitures (surtout en virage) au loin qui sont floues et/ou clignotent
Le TDP, qui est la capacité de dissipation thermique de ton compostant, donc ta CG ou ton processeur sera toujours plus bas que la consommation réel du composant, car de faite, la consommation va elle même crée une perte de chaleur sur le chemin.
Je prend l'exemple d'un processeur, entre l'alim et lui, il y a une perte de chaleur légère dans les câble, mais conséquente dans l'alimentation en elle meme et les VRM de la Carte mère, VRM qui s'occupe de convertir les 12V qu'envoie l'alim, en 1.0-1.5V pour ton processeur
Donc, tu peut avoir un processeur qui consomme 200W, et n'avoir besoin que d'un TDP de 180W. (les chiffre sont pas correct, c'est juste pour imagé, je suis incapable de te calculé la perte réel )
Et vu qu'on parle d’énergie, donc sous forme de courant électrique tu a des pertes d'énergie sous forme de chaleur absolument partout avec ton PC.
Dans le câble de l'alimentation entre la prise et le PC, dans l'alimentation en elle même, pas pour rien qu'on les refroidit, dans le câble qui alimente ta CM, ton CPU ou ta CG, dans le circuit imprimé de ta CM ou ta CG (le PCB), dans les VRM qui s'occupe de convertir la tension (présent sur ta CM pour le processeur et dans la CG, qui je le rappel est un mini PC dans ton PC, avec donc sa propre CM, VRM, RAM (VRAM) et sont processeur (GPU)), puis tu a aussi du coup ... une perte dans tout ce qui est nécessaire au refroidissement de tes composant.
Tes ventilateur qui sont la pour dissipé cette énergie, génère eux même une perte d'énergie sous forme de consommation mais aussi de chaleur, vu que le moteur du ventilo, il chauffe aussi
Une CG qui consomme 300W, tu a bien 5-10W qui sont la pour dissipé les 290 autres (les ventilo)
Tout ca mis bout a bout, tu peut avoir des PC qui a la prise consomme 600W, mais qui en réalité en consomme que 400W (j’exagère, c'est juste pour donner l'idée), car tu une quantité non négligeable perdu sous forme de chaleur.
Pour finir sur le TDP, cette mesure (Themal Design Power), a était crée par Intel et c'est juste la capacité du "design" a dissipé une quantité de chaleur mesurer en Watts, que ça soit un ventirad ou un radiateur.
Quand Intel, Nvidia ou AMD dit que leur CPU/GPU est a 200W TDP, c'est qu'il a besoin d'un refroidissement capable de dissipé au moins 200W, mais ça veux pas du tout dire que le composant va consommé 200W, dans les fait il en consomme souvent moins car y a aussi la chaleur ambiante et des autre composant a prendre en compte.
Tu va me dire "mais tu te contredit, tu a dit que le TDP était plus faible que la consommation réel", oui, mais le probleme c'est que le composant en question va ce refroidir avec .. de l'air, qui est donc variable en temperature, et qui est lui même chauffer par les autres composant de ta machine.
Donc les TDP sont souvent plus haut que nécessaire, enfin sur les GPU
Les processeur eux, on sait très bien que Intel et AMD mente comme pas possible, et qu'un Intel 12900K a 120W TDP, c'est un gros mensonge car dans les fait il est plutôt vers les 200-220W TDP avec le PL1 et 270 a 300 en PL2 (PL= Power Limit)
Pareil pour le Ryzen 5900X a 105W, c'est une énorme blague, car c'est surement sa chauffe quand il est a a 3.7ghz, car quand il boost a 4.8-5.0ghz, il est plutôt autour des 200-230W