INFO - L'actualité de l'intelligence artificielle

  • Le souci n'arrive jamais tout seul donc on le voit souvent avec un S mais en aucun cas jamais avec un E sauf en Italie peut-être :jecpa:

    Tu me suis sur tout le forum pour me corriger ou quoi Patrice :LOL:

    Apparemment, oui ça prend bien un E quelque part ! Après recherche approfondie, tiens toi bien, ce n'est pas en Italie ni en France mais... Au Burkina Faso ! Oui M'sieur ! :ptdr:

    Sans titre.png  :B :hey:

  • Mais qui s'en soucie ^^ ?

    D'ailleurs si les IA nous copient, copient-elles aussi nos fautes involontairement :euh2: ? Je sais qu'elles sont capables de le faire volontairement, Laurent nous l'a montré plus haut, mais corrigent-elles les sources qu'elles plagient ?

  • D'ailleurs si les IA nous copient, copient-elles aussi nos fautes involontairement :euh2: ?

    C'est tout le problème de l'entraînement d'une IA, il faut que les données soient bonnes.

    Aux USA ils avaient testé une IA pour juger des affaires judiciaires simples, et ils se sont aperçus que l'IA donnait des jugements plus sévères contre les noirs parce que dans ses données d'entraînement il y avait un biais raciste. :D

    Sinon au sujet des fautes d'orthographes tu peux demander à ChatGPT de les corriger. ;)

  • J'imagine que vous l'avez vu passer :

    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

  • le debut de cette vidéo résume assez bien toutes les craintes que j'ai sur le virage IA de la société:

    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    403.png

  • Je ne suis pas d'accord avec l'intro, les médias en parlent, mal, comme il le dit, mais ça ne reflète pas ce que pense les gens. Ce que je constate autour de moi, c'est que ça fait flipper tout le monde, les gens voient bien que ça risque de licencier à tout va. Et je bosse dans un milieu où pour le moment, on n'est pas concerné. Les médias sont dans leur rôle, faussement naïf. Un peu comme avec le greenwahsing de la voiture électrique, on se sert du prétexte écologique pour ne pas faire flipper les gens (la raison c'est que la vielle Europe n'a pas de ressources, et peu d'amis...).

    Quand au reste de la vidéo, avec ou sans de toute façon on fonce dans le mur, ça donne juste une nouvelle alternative à notre fin :D

    Et je n'ai pas regardé la partie, "business"

    Message modifié 1 fois, dernière modification par 102 Acidez (24 avril 2023 à 22:23).

  • de mon coté j'ai plus l'impression que les gens autour de moi voit ça comme un nouveau gadget comme tweeter ou facebook en leur temps, mais je vois pas grand monde flipper des licenciements

    Et je trouve que c'est intéréssants les points de vue qu'il souleve comme les questions "prolonger l'esperance de vie", c'est vrai qu'une ia arrivera peut etre à des conclusions qui finalement seraient pas du tout ce qu'on pensait obtenir au depart

    403.png

  • C'est effectivement le risque, le côté binaire de l'informatique, comme l'exemple de la vidéo, si on tue tout le monde, il n'y a plus de cancer.

    Ce côté binaire on le voit déjà dans certaines démarches administratives, genre site de l'ANTS :siffle: Quand ça bug parce que le truc n'est pas foutu de rentrer une adresse un peu trop longue ou avec un caractère spécial (genre mon adresse :hihihi:). Quand on allait en sous-préfecture, on n'avait pas ce genre de problème stupide qui fait perdre un temps précieux et oblige à lâcher 35 balles à Norauto :B

  • Ce qu'il me chagrine c'est qu'un jour l'IA pourrait nous sortir un un inédit de Mozart :LOL:

    External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    Bon il a écrit c'est partition à la lumière de la bougie ;) , mais l'inspiration venait de son époque, et pas d'un amas de données ingurgitées tel un glouton par un système dont le besoin et de cataloguer, classifier, ranger dans un case... tel des 0 et des 1 :siffle:

    Pour une musique de 1788 :merci:

  • External Content twitter.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

  • External Content www.youtube.com
    Content embedded from external sources will not be displayed without your consent.
    Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

    là tout est dit pour moi, ce que je n'arrivai pas à argumenter et que je ressentais confusement est dit par ce jeune homme

    qu'est ce que la comprehension, l'intelligence émotionnelle, le sens, la valeur que l'on donne à ce qu'on croit

    c'est passionnant sa demonstration, j'ai enfin les mots

    l'ia est un super outil documentaire oui, mais les medias encore une fois n'ont vu que le spectaculaire, le facile, le mediocre, l'inquietant

    heureusement en fouillant même sur youtube on trouve des pépites

  • Je vois pas trop où il veut en venir. :) Une IA n'est pas un être sensible, c'est une machine probabiliste.

    Les medias ils sont médiocres sur la quai-totalité des sujets, c'est une perte de temps de les écouter... comme de les commenter... :D

    Ce ChatGPT génère beaucoup de débats, et on en parle beaucoup comme si c'était une finalité alors que ça n'est qu'un pas en avant dans l'IA, qui sera ridiculisé par les pas suivants, ça avance à vitesse exponentielle. Dans quelques années on aura des IA 100, 1000, 10000... fois plus puissantes. Déjà GPT 4 explose GPT 3.5 et ça sort à peine quelques mois après. Oo

    J'aime bien l'idée de débattre de la différence Humain/IA, mais ya un hic, c'est que déjà on ne comprend pas très bien l'Être Humain ni son cerveau... :D

    Une émotion c'est quoi ? Un courant électrique, une réaction chimique, une programmation dans le cerveau... Est-ce si différent de ce qu'il se passe dans une machine ?... :rolleyes: Est-on maître de nos émotions, ou même de nos choix ? Le libre arbitre existe t-il ? Dans les domaines des neurosciences, de la philosophie, spiritualité... ce sont des sujets discutés.

  • Le problème est pas de comparer l'IA et l'humain c'est une fumisterie.

    Le problème c'est l'utilisation de l'IA qu'en fera l'humain, dans quel but ? À quelle fin ?

    Et le gros problème qui se pose et qui interroge la plus part des gens : Qui la contrôle et l’entraine ?

    On peut imaginer des IA tout à fait performantes et bénéfiques à l'humanité, par exemple pour prendre des décisions médicales complexes, pour résoudre des problèmes complexes, pour faire de la traduction en temps réelle et j'en passe. Mais on peut aussi imaginer des IA qui serviraient à créer de toute pièce de l'information dans un but d'endoctrinement, ou des IA utilisés pour faire de la guerre économique à d'autres pays/économies, ou utilisés pour rependre des vers informatiques à grande échelle dans un but d’espionnage ou de shutdown d'institutions vitales etc...

    D’où la question d'Elon Musk (qui a crée Open AI et recruté les mecs qui ont pondu GPT), on attend quoi pour légiférer sérieusement là-dessus ? Car pour le moment l'IA est entre les mains d'une poignée de personne, est totalement fermée (dans le sens ou personne ne connait son entrainement et ses fins réelles), et elle est dans les mains d'entreprises dont on connait déjà le background néfaste donc bon... La question se pose, devons-nous les laisser faire jusqu'à qu'ils obtiennent un gamechanger et qu'on puisse plus rien imposer, ou devons-nous légiférer avant de manière, ne serait que dans le doute, préventive ?

  • D’où la question d'Elon Musk (qui a crée Open AI et recruté les mecs qui ont pondu GPT),

    Juste pour préciser que Musk n'a aucun pouvoir décisionnel sur OpenAI, il a fait des dons car au départ c'était une entreprise à but non lucratif, mais ça s'arrête là (il a quitté OpenAI en 2018). Maintenant que c'est surtout financé par Microsoft on se doute que ça ne va pas partir dans la bonne direction. C'est pour ça qu'il pense à créer sa propre équipe et IA avec le projet TruthGPT.

  • Oui, oui exactement, mais ça "légitimise" son propos. Il a créer Open AI, il a recruté les meilleurs talents dispo (qui n'était pas encore chez DeepMind à l'époque) et il l'a créer Open Source et à but non lucratif !

    Ensuite on connait la suite, il a créer SpaceX, Tesla etc... Et il a un peut laisser tomber. Aujourd'hui il a toujours des contacts avec les gars qu'il a recruté là-bas, mais il ne contrôle plus rien d'Open AI. C'est tombé sous l'égide de Microsoft.

    Et l'ironie c'est qu'il l'avait créer dans un but de contrepoids total à Google DeepMind (Google est fermé et à but lucratif, donc Open AI était Open Source et à but non lucratif). Aujourd'hui Open AI est en source fermée et à but lucratif. C'est justement ce qu'il déplore et c'est pourquoi il se sent obligé (faut pas oublier que c'est l'homme le plus riche de la planète) de re-créer une société sur l'IA qui reprendrait le but initiale d'Open AI (open source et à but non lucratif).

  • on attend quoi pour légiférer sérieusement là-dessus ?

    à l’échelon mondial ça vas être plus que compliqué :hihihi: , déjà qu'on n'arrive pas à s'entendre au niveau national ;)

    franchement une bonne dictature façon "Nord Coréenne" :fouet2: plus de problème :B

  • L'ONU sert à quoi ?

    Et puis ils sont tous à San Fransisco, donc suffit de légiférer au niveau fédéral US dans un premier temps. C'est une industrie précise, donc elle peut être soumise à une agence fédérale au niveau US.

    Traduction de ce que dit Elon Musk à ce sujet dans l'interview partagée plus haut :

    Citation

    "Je pense que nous devrions prendre cela au sérieux et avoir une agence de régulation. Je pense qu’il faut commencer par un groupe qui cherche d’abord à comprendre l’IA, puis à solliciter l’opinion de l’industrie, et enfin à proposer des règles. Ensuite, ces règles, vous le savez, seront probablement acceptées à contrecœur par les principaux acteurs de l’I.A. Mais je pense que nous avons plus de chances pour qu’une I.A avancée soit bénéfique à l’humanité dans ces conditions."

  • Peut-on penser/espérer sérieusement que les décideurs puissent se mettre autour d’une table ne serait-ce que pour échanger sur une éthique de programmation, champs de compétences et/ou d’utilisation d’une intelligence artificielle ?