INFO - L'actualité des cartes NVIDIA

  • - Le ray tracing ca me rapelle enormément le Physx , plein de videos pour montrer les benefices , ca a commencé en 2008 , et pour finalement une 50aine de jeux (et encore , pas mal de titres "repetitif" ) , je ne me souviens pas avoir entendu quelqu'un me dire "je prends une nvidia pour le physx". :euh2: je ne sais meme pas si des jeux recents l'utilise encore ?

    - Et pour le Dlss , pour avoir comparé recement "visuellement", je trouve que le Fsr , sur carte Amd (détail important) , a niveau "équivalent" de reglage donne un meilleur resultat visuel (et ca marchait pas mal du tout avec la dll openvr_fsr sur des jeux) . Par contre coté fps je n'en sais rien car ma rtx3070 actuelle est plus puissante que la 5700xt que j'avais donc forcément ce n'est pas comparable.

    Mais ceci dis le dlss, tant qu'on en abuse pas , ce n'est pas trop moche non plus. Mais la je parle de ACC sur écran, je n'ai aucun autre jeu qui permette de le tester , c'est vrai que ce choix fsr/dlss se fait quand meme attendre sur nos autres simus. (a par trackmania je ne joue a rien d 'autres sur pc)

    Je pense qu'a tarif equivalent , on a quand meme maintenant une offre assez cohérente entre les deux marques. Reste a sauter sur les bon coups pour grapiller des places dans le classement des cartes graphiques :B

    Intel 9600K , RTX 3080Ti, Quest3. Volant TX +T3pa pro+Th8a + P310

  • je ne sais meme pas si des jeux recents l'utilise encore

    on le voit encore dans les options de certains jeux voir même dans le générique du lancement du jeu quand il te donne toutes les sociétés qui ont permis de le faire.

    On est tellement habitué aux physiques "réalistes" qu'on n'y prête plus attention. et tous les jeux n'en ont pas besoin. :)

  • Alors on va corriger quelque truc.


    - Le DLSS est meilleur que le FSR et n'impact plus du tout la qualité graphique, il lui reste juste quelque leger bug a corriger, genre un leger flou sur les objet en mouvement
    Cyberpunk et Deathloop c'est les meilleur exemple a ce sujet :

    External Content youtu.be
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    Si vous avez un jeux qui est impacter négativement par le DLSS, c'est pas la faute de Nvidia.
    Ne pas oublier également que le FSR marche aussi sur les GPU Nvidia, donc c'est pas vraiment un argument en faveur de AMD.

    - Le Raytracing sera utiliser par tout le monde a l'avenir, tout simplement car c'est un énorme gain de temps pour les dev, et donc un gain d'argent.
    Sans le Raytracing, on doit placer les lumiere une a une, vérifier que tout marche correctement, corriger 23 bugs ...
    Avec le Raytracing, ta rien a faire, il fait tout lui meme, le fait que les consoles permette le Raytracing va donner un sacré boost, et je vous garantie que le Raytracing deviendra la norme
    Pour l'impact sur les FPS, avec les RTX 2000 ou les RX 6000 il est important, avec les RTX 3000 on arrive a un niveau acceptable, les RTX 4000 permettrons un Raytracing sans grand impact, je le prédit.

    - Nvidia n'a pas perdu d'argent, la situation actuelle de Nvidia c'est qu'ils en on gagner moins que prévu, y a une grosse différence. (et c'est pareil chez AMD)
    Et n'oubliez pas un truc, le marché gaming de Nvidia n'est pas du tout leur marché principale, c'est juste leur vitrine grand publique et globalement l'entreprise ce porte très bien.

    Face a AMD, faut garder en tête que pour 1 carte graphique AMD vendu, Nvidia en vend 3, les part de marché de Nvidia sont monstrueuse, et Nvidia en a jamais rien eu a faire des sortie de AMD, il n'ont fait que les troller avec des GPU sans aucun sens pour les faire chier et continuer a inondé les étagère avec du recyclage de puce qui on pas passer les test, comme par exemple les puce de RTX 3080 Ti qui sont des "mauvais" bin de RTX 3090, ou le puces de RTX 3070 Ti qui sont des "mauvais" bin de RTX 3080.
    Ce que AMD c'est mis a faire également avec les 6X50

    Ensuite, jamais la sortie des RTX 4000 sera dépendante de ce que fait/propose AMD, Nvidia s'en fou royalement (avec arrogance d’ailleurs), Intel a d’ailleurs le même comportement et oublier pas que Intel gagne en 1ans ce que AMD et Nvidia possède, ce sont des petit joueur face a Intel (qui arrive bien sur le marché des GPU par la petite porte, mais faut ce méfier de que qu'ils peuvent proposer dans 2-3ans).
    Surtout que AMD a pas mal de souci avec les RX 7000, et que ca soit leur prochaine génération de CPU ou de GPU, ça s'annonce pas joyeux pour les rouge.
    Vu ce qu'on sait, il semblerai que les Ryzen 7000 et les RX 7000 soit pas incroyable, et soit surtout des génération de transition pour AMD, la majorité des info laisse entrevoir un échec.

    - Le croisement de génération a toujours était présent, quand les RTX 3000 sont sortie, y avait encore pas mal de RTX 2000 sur le marché
    La leur "probleme", c'est qu'ils ont booster a mort la production quand ils ont pu, ce qui a mis fin a la crise, mais en contrepartie ils ont une grosse quantité de GPU qui ce vende pas tellement, et au passage AMD a le même probleme, suffit de les voir bradé les RX 6900 XT pour le comprendre.

  • Je suis anti DLSS pour ma part, je trouve que j'ai en face de moi une omelette baveuse Je préfère au pire basculer en 1440P tous à fond par contre le RT j'avoue que c'est assez impressionnant malgré son jeune âge.

    Je pense que les RTX 4xxxx seront une vrai avancé comparé au 3xxx, je ne regrette qu'une chose de la prochaine génération c'est sa consommation, ce qui pour moi est un frein pour je pense beaucoup de futurs acheteurs.

    Maintenant le mieux c'est d'attendre l'officialisation, car les on-dit on c'est quoi en penser.

    CSL DD+CS Wheel RS+CS Formula V2.5 - HE Sprint - TH8A - un moteur à base de R5 3600 - RTX 3080 TI :vache:

  • Je suis anti DLSS pour ma part, je trouve que j'ai en face de moi une omelette baveuse Je préfère au pire basculer en 1440P tous à fond par contre le RT j'avoue que c'est assez impressionnant malgré son jeune âge.

    Je pense que les RTX 4xxxx seront une vrai avancé comparé au 3xxx, je ne regrette qu'une chose de la prochaine génération c'est sa consommation, ce qui pour moi est un frein pour je pense beaucoup de futurs acheteurs.

    Maintenant le mieux c'est d'attendre l'officialisation, car les on-dit on c'est quoi en penser.


    On connais rien des consommations des RTX 4000, et les "leaker" comme Greymon ou Kopite7Kimi (les plus grosse source de site hardware) sont des charlatant qui sont juste des source a clic depuis des années. (et tout le monde le sait, mais ca fait parler, ca génére du clic, et donc de l'argent, et au final, tout le monde s'en fout que ca soit des conneries)

    Et en plus c'est "guignole", j'ai pas d'autre terme, confonde Watts TDP (donc dégagement de chaleurs) et consommation, pour des "spécialiste", ça la fou mal.

    C'est comme si quelqu'un te disait qu'il a des source chez Ferrari pour les moteur, qu'il t'annonce le prochain V12 Ferrari avec des chiffre, mais qu'il confond dans le meme temps couple et puissance :rame:

    Ils font que brassé du vent, et pour certain ils sont même pas a 20% de leak correcte, c'est vraiment une vaste blague :hihihi:


    Pour le DLSS dans Assetto Corsa j'ai pas tester, mais c'est surement le pire exemple pour le DLSS car justement les objet en mouvement sont la faiblesse du DLSS/FSR, ca sera corriger avec le temps. (surtout le DLSS qui utilise le Deep Leaning d'IA si jamais, donc l'IA apprend en continue, jeux par jeux)

  • Oui c'est ce que je dit les "on-dit", c'est pour cela que j'attends la meilleur source, les propres créateurs.C'est une valeur sur :+:

    Je n'écoute pas les Leakers, influenceurs qui rien que pour le terme me fait penser juste a des manipulateurs qui dirige des influençables pour ma part et qui d'ailleurs eu même ce nomme de se propre terme d'influenceurs.

    C'est d'ailleurs bien dommage car ils existent beaucoup de passionnés qui sont instructifs sans tomber dans le vice de chercher le buzz ou like a la con qui sont d'ailleurs mit en premiers visuellement et engrange encore plus d'absurdité dans ce monde.

    Désolé pour le coup de gueule, mais fallait que cela sorte.

    Je vous aime :LOL:

    CSL DD+CS Wheel RS+CS Formula V2.5 - HE Sprint - TH8A - un moteur à base de R5 3600 - RTX 3080 TI :vache:


  • confonde Watts TDP (donc dégagement de chaleurs) et consommation, pour des "spécialiste",

    Pour mon info personnelle, l’écart entre les 2 est de l’ordre de combien (en %) ? :shy:

    Pour ACC, je confirme que ce qui tue l’immersion, ce sont les voitures (surtout en virage) au loin qui sont floues et/ou clignotent :(

    264.png

  • J'ai refait un essai récemment, et même en Dlss qualité, les voitures au loin ne sont plus qu'un nuage de points !

    Et puis je trouve que les couleurs également perdent leur naturel.

    587.png

  • surtout le DLSS qui utilise le Deep Leaning d'IA si jamais, donc l'IA apprend en continue, jeux par jeux

    Que veux-tu dire par là exactement "l'ia apprend en continu jeux par jeux" fayte ?

    Est-ce à penser que le dlss s'améliore de lui-même au fur et à mesure qu'on l'utilise dans un jeu ? :?

    587.png

  • Moi le DLSS sur les jeux que j'utilise je trouve ça très bien. Je pourrais plus vraiment jouer sans (dans les jeux en questions) :euh2:

    Que veux-tu dire par là exactement "l'ia apprend en continu jeux par jeux" fayte ?

    Est-ce à penser que le dlss s'améliore de lui-même au fur et à mesure qu'on l'utilise dans un jeu ? :?

    Deep Learning Super Sampling, ce qui signifie que c'est une IA ;) En français = Super Échantillonnage et Deep Learning est une expression qu'on peut pas vraiment traduire mais c'est pour signifier que l'IA apprend continuellement. Littéralement ça donne "Apprentissage Profond" ce qui ne veut rien dire en français.. En français on pourrait dire "Boucle Perpétuelle d'Apprentissage" par exemple (mais ça ne se traduit plus par Deep Learning :B).

    Pour ta deuxième question : Oui c'est le but :hihihi:

  • @XtaZiiy tu vas bientôt pouvoir le tester sur Flight Simulator

    Ryzen 5800x3d, Sapphire nitro+ vaporX 7900xtx, 32Go RAM 3600.

    Simracing : T300 alcantara, pédalier CSL elite + LC

    Aviation : VKB : Gunfighter III, T-rudder et Gladiator NXT. Collectif Virpil.

  • Oui normalement pour la SU10 justement j'attends ça avec impatience comme DX12 mais ça je crois qu'on peut toujours attendre....

  • Que veux-tu dire par là exactement "l'ia apprend en continu jeux par jeux" fayte ?

    Est-ce à penser que le dlss s'améliore de lui-même au fur et à mesure qu'on l'utilise dans un jeu ? :?


    En gros Nvidia et les dev font tourner leur jeux en continue avec l'IA qui gére le DLSS et elle a apprend en continue et corrige avec un peut d'assistance humaine bien sur.
    Quand elle a suffisamment progresser, nvidia sort une update que les dev doivent ensuite appliquer a leur jeux.

    Et oui, le DLSS a du mal a bien upscale les pixel avec beaucoup de mouvement, les jeux de course sont forcement très impacter.
    Pour expliquer grossièrement le DLSS :
    L'IA vas avoir une image dans une résolution plus faible, par exemple 1920x1080, qu'elle vas agrandir (upscale) dans une résolution plus élevée, genre 2560x1440, mais pour çà, elle doit "prédire/deviné" certain pixel, car forcement, elle va "simulé" les pixel manquant nécessaire pour agrandir la résolution.

    Quand tu comprend le principe de fonctionnement du DLSS, tu te doute bien qu'une image en mouvement continue, c'est la pire chose pour elle. :B

  • Son optimisation globale. Elle apprend de tes réglages et habitudes de jeux, résolutions etc... Et elle optimise au mieux en fonction des phase de jeu et de ce que le PC doit gérer en temps réel. Donc plus tu joues avec plus c'est fluide. Les FPS c'est pas vraiment sa target, sa target c'est que le framerate soit stabilisé en toute circonstances même les plus contraignante avec les réglages les plus optimaux que tu lui demandes et elle compense les manques. Mais pour ça faut bien qu'il rencontre ces situations au moins une fois pour savoir comment réagir à l'avenir en fonction... Évidement ça c'est géré et testé en amont sur des machines chez eux..

    Tu as des jeux qui propose plusieurs "options" de DLSS par exemple graphique avant tout, performance avant tout etc.. Lui il observe ce qui se passe quand il fait ce que tu lui demandes et ajuste en temps réel quand ça devient trop gourmand ou qu'il a de la marge pour pousser +.

    Moi j'ai jamais visuellement de downgrade graphique dans mes jeux ou je l'utilise, du moins je le remarque pas puisqu'il le fait certainement sur certains trucs de temps à autre. Après ACC c'est le pire exemple d'optimisation d'un jeu et en+ c'est très difficile pour le DLSS de gérer autant d'assets en mouvement puisqu'il doit calculer et compenser en permanance. Je pense que pour les jeux de courses c'est pas encore assez au point. Mais du reste j'ai aucuns problèmes en simu de vol par exemple.

  • je ne pense pas qu'il y ait une amélioration avec l'expérience du jeu. Du moins pas continue.

    Le principe est de passer à une résolution inférieure pour gagner des FPS et l'I.A. recalcule les pixels en vue d'améliorer l'image.

    Il peut y avoir une mémorisation des calculs :? pour améliorer les perfs.

    Pour direct X12 dans MSFS il y a déjà eu des améliorations, au départ c'était la cata mais actuellement j'ai plus ou moins le même nombre de FPS avec dx11 ou dx12. On devrait avoir une MAJ de DX12. reste à voir le rapport perfs/bugs.

    Ryzen 5800x3d, Sapphire nitro+ vaporX 7900xtx, 32Go RAM 3600.

    Simracing : T300 alcantara, pédalier CSL elite + LC

    Aviation : VKB : Gunfighter III, T-rudder et Gladiator NXT. Collectif Virpil.

  • Bon après j'ai pas de problèmes majeurs pour faire tourner Acc : je suis à 90-100 FPS constants mais sans les ombres en ultra sinon, je trouve le drop trop sévère.

    Hors les ombres en élevé et c'est cette fichue impression que les voitures lévitent qui me saute aux yeux. Alors je tente parfois le dlss pour les plaisirs des ombres portées au top...mais ça ne me va pas sur le reste, je ne tiens pas plus d'1 race ou 2.

    Du coup moi je connais déjà le futur : le dlss 3.0 chez moi s'appelle 4080ti :B

    587.png

  • Pour mon info personnelle, l’écart entre les 2 est de l’ordre de combien (en %) ? :shy:

    Pour ACC, je confirme que ce qui tue l’immersion, ce sont les voitures (surtout en virage) au loin qui sont floues et/ou clignotent :(


    Le TDP, qui est la capacité de dissipation thermique de ton compostant, donc ta CG ou ton processeur sera toujours plus bas que la consommation réel du composant, car de faite, la consommation va elle même crée une perte de chaleur sur le chemin.

    Je prend l'exemple d'un processeur, entre l'alim et lui, il y a une perte de chaleur légère dans les câble, mais conséquente dans l'alimentation en elle meme et les VRM de la Carte mère, VRM qui s'occupe de convertir les 12V qu'envoie l'alim, en 1.0-1.5V pour ton processeur

    Donc, tu peut avoir un processeur qui consomme 200W, et n'avoir besoin que d'un TDP de 180W. (les chiffre sont pas correct, c'est juste pour imagé, je suis incapable de te calculé la perte réel :hihihi: )

    Et vu qu'on parle d’énergie, donc sous forme de courant électrique tu a des pertes d'énergie sous forme de chaleur absolument partout avec ton PC.

    Dans le câble de l'alimentation entre la prise et le PC, dans l'alimentation en elle même, pas pour rien qu'on les refroidit, dans le câble qui alimente ta CM, ton CPU ou ta CG, dans le circuit imprimé de ta CM ou ta CG (le PCB), dans les VRM qui s'occupe de convertir la tension (présent sur ta CM pour le processeur et dans la CG, qui je le rappel est un mini PC dans ton PC, avec donc sa propre CM, VRM, RAM (VRAM) et sont processeur (GPU)), puis tu a aussi du coup ... une perte dans tout ce qui est nécessaire au refroidissement de tes composant.

    Tes ventilateur qui sont la pour dissipé cette énergie, génère eux même une perte d'énergie sous forme de consommation mais aussi de chaleur, vu que le moteur du ventilo, il chauffe aussi:B
    Une CG qui consomme 300W, tu a bien 5-10W qui sont la pour dissipé les 290 autres :hihihi: (les ventilo)

    Tout ca mis bout a bout, tu peut avoir des PC qui a la prise consomme 600W, mais qui en réalité en consomme que 400W (j’exagère, c'est juste pour donner l'idée), car tu une quantité non négligeable perdu sous forme de chaleur.

    Pour finir sur le TDP, cette mesure (Themal Design Power), a était crée par Intel et c'est juste la capacité du "design" a dissipé une quantité de chaleur mesurer en Watts, que ça soit un ventirad ou un radiateur.

    Quand Intel, Nvidia ou AMD dit que leur CPU/GPU est a 200W TDP, c'est qu'il a besoin d'un refroidissement capable de dissipé au moins 200W, mais ça veux pas du tout dire que le composant va consommé 200W, dans les fait il en consomme souvent moins car y a aussi la chaleur ambiante et des autre composant a prendre en compte.

    Tu va me dire "mais tu te contredit, tu a dit que le TDP était plus faible que la consommation réel", oui, mais le probleme c'est que le composant en question va ce refroidir avec .. de l'air, qui est donc variable en temperature, et qui est lui même chauffer par les autres composant de ta machine.
    Donc les TDP sont souvent plus haut que nécessaire, enfin sur les GPU
    Les processeur eux, on sait très bien que Intel et AMD mente comme pas possible, et qu'un Intel 12900K a 120W TDP, c'est un gros mensonge car dans les fait il est plutôt vers les 200-220W TDP avec le PL1 et 270 a 300 en PL2 (PL= Power Limit)
    Pareil pour le Ryzen 5900X a 105W, c'est une énorme blague, car c'est surement sa chauffe quand il est a a 3.7ghz, car quand il boost a 4.8-5.0ghz, il est plutôt autour des 200-230W :haha: