"IA" : les logiciels Auto-Apprenants (LAP), ChatGPT et autres perroquets artificiels

Introduction : les LAP dits "IA" sont des outils ultra-spécialisés et ultra-limités. Ils sont développés pour le meilleurs comme pour le pire, à coup de propagande mensongère

"Intelligence Artificielle"
L'expression "Intelligence Artificielle" - ou IA - désigne d'abord un concept, une notion, imaginée dans les années 1940 par le mathématicien Alan Turing, puis formalisée dans les années 1950 par le mathématicien John McCarthy (Conférence de Dartmouth de 1956).

Dans le jargon informatique, l'expression malheureuse "Intelligence Artificielle" désigne, soit depuis 1965, des techniques de simulation des raisonnements déductifs en appliquant des règles à des faits (systèmes experts), soit des techniques plus récentes d'apprentissage automatique (machine learning) grâce à des calculs statistiques donnant un résultat d'après quelques données, par comparaison à un ensemble gigantesque de données (par exemple, calculer la probabilité d'une tumeur sur le cliché d'une radiographie du sein, ou encore proposer une fin plausible à un début de phrase ou de récit).

Actuellement dans le Landerneau de la finance et plus précisément des fonds d'investissement (private equity), des startups numériques et des médias avides d'audience, l'Intelligence dite Artificielle - ou IA -, désigne un ou des logiciels (algorithmes) capables de remplir une tâche donnée à la place de l'être humain et mieux que lui, comme le serviteur exécute des tâches pour son maître.

L'Intelligence Artificielle n'existe pas
Dans la réalité, l'Intelligence Artificielle n'existe pas encore, ou de manière extrêmement embryonnaire au travers des toutes premières formes de vie artificielle (voir en bas de page). Car puisque l'intelligence, c'est la capacité de trouver, de créer, ou d'inventer une solution à un problème qui survient (comme l'explique le botaniste Francis Hallé), alors il n'existe pas d'intelligence sans vie, ni de vie sans intelligence. Ainsi, tous les animaux sont intelligents, de même que tous les autres eucaryotes : les végétaux, les champignons, sans oublier Physarum polycephalum alias "Blob", ce célèbre amibozoaire dont l'intelligence n'est plus à démontrer. Les bactéries et les archées également, sont intelligentes au sens fort du terme. Car la moindre cellule vivante possède des mécanismes de mémorisation et d'adaptation aux changements brusques de son environnement (aléas). Cette définition de l'intelligence implique 2 choses. D'une part, l'intelligence de l'être humain pris dans son ensemble — l'animal le moins spécialisé et le plus généraliste sur la planète — doit être relativisée au regard du temps qu'il lui faut pour trouver une solution à certains problèmes qui surviennent du fait des changements brusques et menaçants de son environnement, qu'il prétend pourtant comprendre. D'autre part, les ordinateurs aux algorithmes qualifiés d'"intelligences artificielles" sont complètement stupides, car totalement aveugles et sourds à leur environnement et aux changements brusques de celui-ci. C'est ce que suggère l'ingénieur informaticien spécialisé dans l' "Intelligence Artificielle" Luc Julia, tout en démontrant mathématiquement et simplement la non-intelligence de l'IA (cf. section "IA : Mieux comprendre les logiciels auto-apprenants, ChatGPT et autres perroquets artificiels"). La prétention de vouloir résoudre tous les problèmes de l'Humanité en s'obstinant à engager tous les efforts de développement dans ces mêmes logiciels stupides dit IA plutôt que de développer la vie artificielle, donne d'ailleurs une vision assez vertigineuse des limites de l'intelligence humaine contemporaine soumise à l'idéologie dominante.

Les gourous libertariens de la Silicon Valey relayés par les médias du monde entier, présentent ce qu'ils appellent désormais l' "Intelligence Artificielle Générale" comme quelque chose qui va prochainement advenir et supplanter le cerveau humain. Cette imposture idéologique est une partie du narratif délétère créé par le marché. Il s'agit de capter l'attention et d'orienter les désirs vers un idéal d'épanouissement individualiste, c'est-à-dire de développer de grandes croyances chez les consommateurs, afin que les capitaux investis aient des probabilités de gros rendements et que cette bulle spéculative perdure le plus longtemps possible.

Dans la réalité, tant que les techniques de génération de la vie artificielle n'auront pas été développées, l'Intelligence Artificielle au sens propre n'existera pas. Pour que la vie artificielle actuellement à l'état embryonnaire soit intéressante pour la société humaine, cela suppose que les êtres artificiels soient élevés, éduqués, au cours d'un processus dont la durée est potentiellement longue, et dont le taux de réussite est pour l'instant inconnu. C'est-à-dire selon des critères que fuit la finance. L'éducation des petits être humains elle-même, est l'ennemi du marché, qui a besoin de futurs consommateurs pulsionnels, désirants et frustrés, c'est-à-dire aliénés, captifs. Ainsi dans tous les pays, les politiques publiques d'éducation populaires sont massivement appauvries pour plaire au marchés (agences de notation financière Standard & Poor's, Moody's et Fitch Ratings), tandis que le petit marché de niche des écoles privées valorisent la reproduction conformiste au détriment du développement de l'intelligence.

Converser en français avec un agent conversationnel ChatGPT, gratuitement et sans inscription

ChatGPT et ses clones sont des agents conversationnels à Grand Modèle de Langage. Grâces aux vidéos fournies en lien dans cette page, vous comprendrez que ces logiciels abusivement qualifiés d' "Intelligences Artificielles" sont des outils très performants pour mettre en forme des phrases en respectant toutes les règles de grammaire et de syntaxe, et pour ressortir des bouts d'informations qu'ils piochent dans leur gigantesque base de données provenant de toutes les sources numériques possibles.

À l'usage, on s'aperçoit rapidement des limites de ces outils. Envie de tester ChatGPT sans lui raconter votre vie ? Voici un clone de ChatGPT en français, financé par la publicité, et qui ne nécessite pas de s'inscrire, ni de fournir son numéro 06 (un bloqueur publicitaire comme uBlock Origin est néanmoins conseillé) :

"IA" : Mieux comprendre les Logiciels Auto-Apprenants (LAP), ChatGPT et autres perroquets artificiels

Quelques liens critiques pour éclairer ce que sont actuellement les Logiciels Auto-Apprenants (LAP), et les agents conversationnels à Grand Modèle de Langage comme ChatGPT.

  • 12/03/2023: Defakator Vite Fait > [Vidéo] VITE FAIT : Comment fonctionne ChatGPT ? (4'50" ; Invidious ; Youtube)
    Version longue : 02/03/2023: Defakator Vite Fait > [Vidéo] Comprendre ChatGPT (avec DefendIntelligence) (49'59" ; Invidious ; Youtube)
  • 14/04/2023: David Louapre (ScienceEtonnante) > [Vidéo] Ce qui se cache derrière le fonctionnement de ChatGPT (27'22" ; Invidious ; Youtube) : Je vous explique les bases de ChatGPT, et comment il a été conçu à partir du modèle de langage GPT
  • 21/06/2023: France Université Numérique > [Vidéo] L'intelligence artificielle n'existe pas, par Luc Julia (56'21" ; Invidious ; Youtube) : Conférence gesticulée critique de 36'50" sur l'histoire de l'Intelligence dite Artificielle depuis 1642 jusqu'à nos jours, suivi d'une interview et de questions du public

Quelques mauvais usages et effets délétères des Logiciels Auto-Apprenants (LAP) dits Intelligence Artificielle (IA)

Guerre et robots tueurs

  • 09/12/2023: Le Stagirite > [Vidéo] Une "usine à assassinats de masse" : tout sur le logiciel qui sème la mort à Gaza (9'19" ; Invidious ; Youtube) : Les destructions colossales infligée dans la bande de Gaza alimentent les accusations de riposte disproportionnée d'Israël et de possibles crimes de guerre, formulées par les opinions publiques mondiales, plusieurs États et responsables de l'ONU. Un important article du magazine israélien "+972" paru le 30 novembre a mis la lumière sur le recours par l'armée israélienne à un programme d'intelligence artificielle pour désigner des cibles de bombardements nommé Habsora, l'Evangile. L'emploi de cette technologie pourrait jouer un rôle dans la quantité inédite de morts et de destructions. Si l'on ne possède pas suffisamment d'information sur cet outil pour pouvoir dire si on a affaire à un tournant dans l'art de la guerre, il soulève néanmoins un certain nombre de questions éthiques et juridiques. On s'éloigne notamment de la notion de pertes accidentelles, puisque le logiciel fournit une estimation du nombre de pertes civiles que causera l'élimination d'une cible militaire. Le commandement lance l'opération sciemment. La frontière entre conséquences visées intentionnellement et conséquences prévues sans être recherchées devient floue.
  • 04/12/2023: 972mag.com (en) > ‘A mass assassination factory': Inside Israel's calculated bombing of Gaza : Permissive airstrikes on non-military targets and the use of an artificial intelligence system have enabled the Israeli army to carry out its deadliest war on Gaza, a +972 and Local Call investigation reveals …

Les Logiciels Auto-Apprenants (LAP) et la manipulation des masses

  • 24/02/2024: Pascal Lottaz > [Vidéo] Intelligence Artificielle : un dossier pour le Conseil de Sécurité de l'ONU (15'58" ; Invidious ; Youtube) : Extrait d'une conférence de l'informaticien Tristan Harris, informaticien président et cofondateur du Center for Humane Technology, et qui explique que les dernières "élections humaines" se déroulent en 2024. Puis extrait du discours officiel de Melissa Fleming, journaliste et Sous-Secrétaire Générale de l'ONU à la communication mondiale, lors d'une réunion "Formule Arria" du Conseil de Sécurité

La course aux Logiciels Auto-Apprenants (LAP) dits "IA" et le pillage des données personnelles (destruction de la vie privée)

La pratique de l'exploitation commerciale des données personnelles était déjà bien développée chez les courtiers de données (data-broker) qui proposent des services "gratuits" de boîtes mails comme Google et Yahoo! Mais avec la course à l'Intelligence dite Artificielle – ou IA –, le pillage des données se généralise et se banalise sous une nouvelle forme.

En effet, les grandes sociétés informatiques rivalisent d'efforts pour développer les outils d'IA offrant la meilleure productivité, non seulement pour la navigation web, mais aussi et surtout pour les tâches bureautiques. Dans cette course à la compétitivité, tous les moyens sont bons pour prendre de l'avance sur les concurrents. Les sommes investies et les profits attendus sont si importants, que les considérations morales n'ont strictement aucune valeur. C'est pourquoi, les entraînements des technologies IA qui servent à générer des images, ont été effectués sur de grands stocks d'images récoltés par tous les moyens possibles, à tel point que ces stocks contiennent des images pédopornographiques, comme l'ont révélé des chercheurs de l'Université Stanford1).

Bien que non formulée explicitement, l'analyse fine et systématique du contenu des emails et des documents bureautiques transférés dans le Cloud, est considérée comme un moyen d'optimiser le travail et la productivité : ces contenus personnels sont découpés et versés dans le Cloud au pot commun de la datamasse (Big data) qui nourrit les logiciels d'IA. Comme l'utilisateur ne contrôle pas le processus et que cette datamasse est collective, cela implique un effondrement du niveau de confidentialité, avec le risque que des morceaux de phrases soient proposés à d'autres personnes et à des entreprises concurrentes.

Avec son produit Copilot intégré dans Microsoft (office) 365 et dans la "nouvelle interface de travail unifiée de Outlook" alias "Outlook pour Windows" ou "Outlook for Windows" alias "Nouveau Outlook" ou "New Outlook" alias "One Outlook", les utilisateurs sont donc victime de cette nouvelle exploitation de leurs vie privée. Il faut s'attendre au même phénomène pour les services en lignes équivalents, qui fonctionnent par définition à l'intérieur du Cloud : Outlook Web App, Google GMail, Google Workspace, Facebook, Yahoo!, etc.

Cette nouvelle exploitation des données personnelles est une nouvelle bonne raison d'abandonner les services en ligne soit-disant gratuits et néanmoins malveillants de Google (dont GMail), Yahoo!, Microsoft, Facebook, etc.

Et bien que la suite bureautique Microsoft (office) 365 soit payante, l'utilisation de l'outil Copilot (en particulier pour Outlook 365) continuera de constituer une menace tant que ces logiciels ne seront pas des logiciels libres.

Quelques liens :

  • foundation.mozilla.org > (Pétition) Demandez à Microsoft : utilisez-vous nos données personnelles pour entraîner votre IA ? : Nous avons fait examiner le nouveau contrat de services de Microsoft par quatre avocats, trois experts en confidentialité et deux militants. Et devinez quoi ? Aucun de nos experts n'est parvenu à déterminer si Microsoft prévoyait d'utiliser vos données personnelles pour entraîner ses modèles d'IA. Cela inclut vos échanges audio, vidéo et écrits ainsi que vos pièces jointes dans 130 produits comme Office, Skype, Teams et Xbox. Si neuf experts en confidentialité ne parviennent pas à comprendre ce que Microsoft fait avec vos données, quelle chance a un·e simple utilisateur·trice d'y arriver ? C'est pourquoi nous demandons à Microsoft de dire s'ils vont utiliser nos données personnelles pour entraîner leur IA.
  • 22/04/2024: IA > lemondeinformatique.fr > GitHub Copilot rend le code non sécurisé encore moins sûr, selon Snyk : L'entreprise de sécurité des développeurs met en garde sur le fait que Copilot et d'autres assistants de codage alimentés par l'IA peuvent reproduire des vulnérabilités de sécurité déjà présentes dans la base de code de l'utilisateur. […] "Les assistants de codage basés sur l'IA générative comme GitHub Copilot, Amazon CodeWhisperer et ChatGPT représentent un progrès considérable en termes de productivité et d'efficacité du code", a déclaré Snyk. Mais ces outils ne comprennent pas la sémantique du code et ne peuvent donc pas juger de sa qualité. […] Les données de Snyk indiquent qu'un projet logiciel commercial normal comporte en moyenne 40 vulnérabilités dans le code de première partie, et que près d'un tiers de ces vulnérabilités sont de haute gravité. "Les outils de génération d'IA peuvent tout à fait dupliquer le code en utilisant ces vulnérabilités comme contexte", a insisté Snyk. Les problèmes les plus courants constatés par Snyk dans les projets commerciaux sont les scripts intersites XSS, les vulnérabilité Path Traversal, l'injection SQL et les secrets et informations d'identification codés en dur. …
  • 15/02/2024: IA > intelligence-artificielle.developpez.com > Les petites amies IA vont non seulement vous briser le cœur, mais aussi récolter et vendre vos données avertissent les experts en protection de la vie privée de la Fondation Mozilla : Une enquête sur l'espace florissant des applications de romance par IA a révélé une vérité effrayante. Les chatbots favorisent la "toxicité" et s'emparent sans relâche des données des utilisateurs, selon une étude de la Fondation Mozilla. Une application peut collecter des informations sur la santé sexuelle des utilisateurs, leurs ordonnances et les soins qu'ils reçoivent en fonction de leur sexe. …
  • 22/12/2023: intelligence-artificielle.developpez.com > OpenAI s'engage à remédier à la vulnérabilité de fuite de données dans ChatGPT, tandis que DeepMind et des universités mettent en lumière une faille exposant des données d'entraînement : OpenAI a récemment pris des mesures pour atténuer une vulnérabilité de fuite de données dans ChatGPT, qui permettait aux attaquants d'exfiltrer des données via l'injection d'image markdown
  • 05/09/2023: 01net.com > Mozilla craint que Microsoft utilise vos données personnelles pour entraîner son IA : […] Le nouveau contrat de service mis en ligne par Microsoft et qui entrera en vigueur à la fin du mois semble manquer de clarté. La Fondation Mozilla s'inquiète et craint que les données personnelles des utilisateurs ne soient utilisées pour entraîner les modèles d'IA de la firme de Redmond. Mozilla s'inquiète, et elle a s'en doute raison de le faire pour vous. La Fondation, qui édite le navigateur Web Firefox, se pose des questions quant à la mise à jour du contrat de service de Microsoft. […] Microsoft va-t-elle utiliser vos données personnelles pour nourrir ses IA ? Pour tenter d'y voir plus clair, Mozilla a missionné quatre avocats spécialisés, trois experts en protection de la vie privée et deux militants pour jeter un œil au contenu de ce nouveau contrat de service. Et le constat est assez effrayant. Aucun de ces experts n'a été en mesure de dire si Microsoft prévoyait, ou non, d'utiliser vos données personnelles pour former ses modèles d'intelligence artificielle. …
  • 16/12/2021: breizh-info.com > Informatique. Cinq menaces qui auront un impact sur vos données personnelles et votre vie privée : […] Il sera de plus en plus difficile de distinguer ce qui est légitime en ligne. […] Une nouvelle technologie a vu le jour, qui permet à des acteurs malveillants de modifier des photos et des films, rendant extrêmement difficile, même pour un œil exercé, de distinguer le vrai du faux. Les "deepfakes" sont de fausses images et vidéos convaincantes réalisées à l'aide de logiciels d'intelligence artificielle et peuvent être produites avec des logiciels librement disponibles. […] La technologie Deepfake a également commencé à être poussée à l'extrême. Cette année, des attaquants ont réussi un hold-up bancaire qui s'est soldé par un vol de 35 millions de dollars en utilisant la technologie Deepfake pour cloner la voix du PDG d'une banque et inciter les employés à leur remettre des informations sensibles…
  • 18/05/2021: IA > journaldunet.com > Menaces sur la vie privée : on n'a encore rien vu ! Chronique de Arnaud Lemaire, Directeur Technique F5 France : […] Mais les avancées de l'intelligence artificielle et de l'automatisation ne vont probablement pas en rester là, et continuer d'ouvrir aux acteurs malveillants de nouvelles perspectives. Comme l'illustre la récupération de données en masse (scraping), d'importantes quantités de données peuvent être volées et réutilisées grâce à des robots sophistiqués. De même, des robots peuvent extraire des informations de géolocalisation de milliards de photos en ligne, et l'IA peut analyser rapidement ces ensembles de données pour détecter des modèles intéressants, tels que des empreintes digitales ou des visages exploitables. […] Enfin, les systèmes d'apprentissage automatique portent le risque d'une corrélation croisée des informations publiques à un niveau jamais atteint encore, en identifiant des modèles que les humains ne trouveraient jamais par eux-mêmes. En bref, l'utilisation de l'automatisation et de l'IA, combinée aux problèmes de sécurité émergents, crée des pans entiers de nouvelles menaces sur la vie privée, exploitables à l'échelle d'Internet. …
  • 31/08/2019: 01net.com > Assistants vocaux : l'analyse de vos émotions, une nouvelle menace pour votre vie privée ? : Les géants high-tech développent des techniques de reconnaissance émotionnelle basées sur la voix. Une nouvelle manière de sonder l'utilisateur et, peut-être, de lui vendre des produits […] Vous pensez que c'est de la science-fiction ? Erreur, c'est exactement ce qui est en train de se passer. "La reconnaissance émotionnelle est un sujet de recherche de plus en plus populaire dans le domaine de l'intelligence artificielle dédiée à la conversation", estime Viktor Rogzik, chercheur au sein de la division Alexa Speech Group d'Amazon. […] selon The Telegraph, le géant du commerce en ligne a déposé en 2017 une demande de brevet pour un appareil capable d'analyser des émotions telles que "la joie, la colère, la tristesse, la peur, le dégoût, l'ennui, le stress", dans le but d'améliorer ses recommandations. […] Plus récemment, on a appris qu'Amazon planchait sur un bracelet connecté au nom de code "Dylan", destiné à "la santé et le bien-être". Doté de microphones intégrés, il serait capable de reconnaître les émotions de l'utilisateur à partir du son de sa voix. […] En 2018, Huawei a dit qu'il souhaitait prochainement doter son assistant vocal, qui n'est pour l'instant que disponible en Chine, d'une capacité de détection émotionnelle.

Les Logiciels Auto-Apprenants (LAP) dits "IA", la destruction massive d'emplois et la déshumanisation des services aux usagers

Le travail manuel effectué dans les usines par les robots humanoïdes et anibots de Boston Dynamics, Tesla Optimus, Agility Robotics, figure.ai, etc.
Le travail manuel d'assistance ménagère effectué par les robots de sociétés moins prisées par les spéculateurs boursiers.
Le travail de bureau et de support aux usagers au guichet, par téléphone ou par Internet, effectué par les Logiciels Auto-Apprenants (LAP), etc.

  • 28/02/2024: tradingsat.com > Teleperformance : Plombé par les exploits de l'outil d'IA de la fintech Klarna, Telepeformance plonge en Bourse : (BFM Bourse) - Le spécialiste des centres d'appels chute lourdement à la Bourse de Paris, le marché s'inquiétant des répercussions sur son activité de l'essor d'outil d'IA de Klarna qui a effectué en un mois l'équivalent de 700 équivalents temps plein. […] Selon un intermédiaire financier, le plongeon du groupe de centres d'appels est à relier à plusieurs articles rapportant les prouesses d'un outil d'intelligence artificielle (IA) développé par la fintech suédoise Klarna. […] Klarna fait valoir que cet assisant a, en un mois, effectué 2,3 millions de conversations, ce qui représente les deux tiers des conversations de relations clients de la société. Elle estime également que cet assistant a effectué le travail de 700 équivalents temps plein.
  • 28/02/2024: zonebourse.com > Teleperformance, un vrai Klarnage : Teleperformance s'est effondrée de plus de 25% au plus fort de la séance de mercredi, après la publication d'un communiqué de la fintech Klarna vantant les mérites de son IA dans la gestion client. […] L'explication initiale fournie par certains traders, qui semblait surprenante compte-tenu du timing de diffusion, s'est avérée correcte : c'est un communiqué daté du 27 février émanant de Klarna qui a mis le feu aux poudres. La néobanque suédoise y fait état des performances de son intelligence artificielle alimentée par OpenAI. Selon la fintech, son assistant, en place depuis un mois, a réalisé 2,3 millions de conversations, ce qui permettrait d'effectuer "l'équivalent du travail de 700 agents à temps plein", avec un taux de satisfaction identique à celui des agents humains. "Il est plus précis dans la résolution des problèmes, ce qui a entraîné une baisse de 25% des demandes répétées", assure Klarna, qui affirme aussi qu'il est plus rapide et qu'il pourrait lui permettre d'accroître ses bénéfices de 40 millions de dollars en 2024. […] Teleperformance a du répondant. "Nous avons déjà affirmé à maintes reprises que TEP intègre et continuera d'intégrer ces technologies dans son offre et réduira également ses effectifs", explique Fabrice Farigoule (AlphaValue). […] L'analyste ajoute que Teleperformance a doublé le nombre de ses ingénieurs en deux ans pour atteindre le cap des 2000, et devrait en faire travailler 5000 dans deux ans, soit davantage que la totalité des effectifs de Klarna, qui vient de licencier. Moralité : il y a du répondant, même s'il est encore difficile de mesurer l'impact réel de l'IA sur le secteur.
  • 26/02/2024: IA > 01net.com > Jeff Bezos, Nvidia, Microsoft, OpenAI... tous investissent dans le robot humanoïde de Figure AI : OpenAI avait déjà songé à racheter la jeune startup. Aujourd'hui, Figure AI est valorisé 2 milliards de dollars et vient de voir le fonds d'investissement de Jeff Bezos et Nvidia rejoindre son capital. Son premier robot humanoïde doit pouvoir être utilisé dans un usage général, et s'adapter à des métiers différents. […] Nvidia, la nouvelle star des marchés boursiers et l'entreprise la plus bénéficiaire de la santé de l'intelligence artificielle a injecté 50 millions de dollars. Le fonds de Jeff Bezos, lui, 100 millions de dollars. […] À Reuters, le CEO de Figure AI ajoutait qu'il préférait l'idée d'un robot humanoïde à usage général pour avoir "beaucoup plus de potentiel que les robots à usage unique. […] Le déploiement sur le marché du travail peut aider à résoudre les pénuries de main-d'œuvre et, au fil du temps, ouvrir la voie à l'élimination du besoin d'emplois dangereux et indésirables.". […] Si ces bipèdes sont encore en phase de conception, il en reste qu'ils commencent déjà à obtenir des contrats. Le robot d'Agility Robotics ne travaille pas qu'avec Amazon. Il doit aussi être déployé dans les chaînes de montage de Ford. Quant au Figure 1 de Figure AI, il a lui aussi décroché un poste dans les usines américaines de BMW, à Spartanburg en Caroline du Sud.
  • 20/02/2024: Figure > [Vidéo] Figure Status Update - Real World Task (Invidious ; Youtube)
  • 03/01/2024: Zipeng Fu2) > [Vidéo] Mobile ALOHA - Un robot domestique intelligent - Compilation de compétences autonomes (Invidious ; Youtube) : Mobile ALOHA : Apprendre la manipulation mobile bimanuelle avec une équipe de téléopération corps entier à faible coût à l'Université de Stanford : Zipeng Fu, Tony Z. Zhao et Chelsea Finn. Résumé : L'apprentissage par imitation à partir de démonstrations humaines a montré des performances impressionnantes en robotique. Cependant, la plupart des résultats se concentrent sur la manipulation sur table, sans la mobilité et la dextérité nécessaires pour des tâches généralement utiles. Dans ce travail, nous développons un système d'imitation de tâches de manipulation mobile qui sont bimanuelles et nécessitent un contrôle de l'ensemble du corps. Nous présentons d'abord Mobile ALOHA, un système de téléopération à faible coût et à corps entier pour la collecte de données. Ce système complète le système ALOHA avec une base mobile et une interface de téléopération pour l'ensemble du corps. En utilisant les données collectées avec Mobile ALOHA, nous effectuons ensuite un clonage supervisé du comportement et nous constatons que le co-entraînement avec les ensembles de données statiques existants d'ALOHA augmente les performances sur les tâches de manipulation mobile. Avec 50 démonstrations pour chaque tâche, le co-entraînement peut augmenter les taux de réussite jusqu'à 90%, permettant à Mobile ALOHA d'accomplir de manière autonome des tâches complexes de manipulation mobile telles que faire sauter et servir un morceau de crevettes, ouvrir une armoire murale à deux portes pour ranger des casseroles lourdes, appeler et entrer dans un ascenseur, et rincer légèrement une casserole usagée à l'aide d'un robinet de cuisine.

Déification des Logiciels Auto-Apprenants (LAP) dits "IA"

  • 06/12/2023: Le dessous des images > [Vidéo] Ces images qui veulent représenter l'IA - Le Dessous des images - ARTE (Invidious ; Youtube) :
    Deux êtres qui se saluent du bout de l'index, un fond bleuté, du code informatique : les ingrédients habituels utilisés pour représenter l'intelligence artificielle. Une image sans aucun rapport avec sa réalité technique et sociale ! Depuis 2020, elle est partout. Dans les médias d'actualité ou consacrés à la technologie, sur les sites des gouvernements ou des banques… Cette illustration à succès fait partie des images de l'agence Getty à disposition des médias et des communicants. Elle convoque des références bibliques et un univers futuriste qui en disent plus sur nous que sur l'intelligence artificielle. Rebecca Swift, vice-présidente et responsable internationale des stratégies créatives chez Getty, nous explique les dessous de cette illustration. Antonio Casilli, chercheur en sociologie, décrypte les symboles contenus dans ce type d'images… et nous en propose d'autres, plus proches de la réalité !

Auto-intoxication des Logiciels Auto-Apprenants (LAP) dits "IA"

La vie artificielle

Les ergo-robots

Pierre-Yves Oudeyer (en) est le directeur de recherche de l'équipe Flowers à l'INRIA et à l'Ensta ParisTech. Depuis des années, ses travaux portent sur la modélisation informatique des principes cognitifs qui peuvent aider les chercheurs à mieux comprendre le fonctionnement de la cognition.

De 2011 à 2014, l'équipe de Pierre-Yves Oudeyer et l'artiste réalisateur David Lynch ont présenté l'exposition interactive "Ergo-robots" à la Fondation Cartier pour l'art contemporain. Programmés pour être doté d'une "curiosité artificielle", ces petits robots babillent en s'écoutant les uns les autres jusqu'à mettre au point un système de vocalisation commun, et cherche à entrer en communication avec les humains qui entrent dans leurs champ de vision ou leur parlent.

  • 23/01/2015: Pierre-Yves Oudeyer > [Vidéo] Paroles de robot (ARTE) (2'55" ; Invidious ; Youtube)
  • 09/03/2015: Fondation Cartier pour l'art contemporain > [Vidéo] ERGO-ROBOTS - Pierre-Yves Oudeyer & David Lynch - Fondation Cartier 2011-2014 (6'57" ; Invidious ; Youtube) : Dans un grand œuf à peine ouvert, une tribu de jeunes créatures robotiques se développe et explore son environnement. Au-delà de leurs capacités innées, elles sont équipées de mécanismes leur permettant de découvrir des savoir-faire nouveaux et d'inventer leur propre langue. Dotées de curiosité artificielle, elles explorent les objets qui sont autour d'elles, ainsi que les effets que leurs vocalisations produisent sur les humains. En réagissant par des gestes, les humains créent une boucle d'interaction, et une forme nouvelle de communication entre robots et humains s'auto-organise au cours du temps. L'expérience Ergo-Robots: Curiosité Artificielle et Langage est une installation et une expérience présentées dans le cadre de l'exposition Mathématiques, un dépaysement soudain du 21 octobre 2011 au 18 mars 2012, à la Fondation Cartier pour l'art contemporain à Paris. Elle expérimente des modèles de la curiosité artificielle et de ses interactions avec l'apprentissage du langage chez les humains et les robots, développés par Pierre-Yves Oudeyer et son équipe INRIA ENSTA ParisTech, ainsi que des modèles développés avec Frédéric Kaplan et par Luc Steels.
  • 01/08/2014: Pierre-Yves Oudeyer > [Vidéo] Pierre Yves Oudeyer Aux sources de la parole (7'18" ; Invidious ; Youtube) : Pierre-Yves Oudeyer présente son livre "Aux sources de la parole : Auto-organisation et évolution" paru chez Odile Jacob le 05/09/2013. […] Des robots peuvent-ils apprendre, et même inventer leur propre système de parole ? Comment construire des robots peut-il nous aider à comprendre l'homme ?

Quelques bons usages des Logiciels Auto-Apprenants (LAP) dits "IA"

  • 01/12/2023: Defend Intelligence > [Vidéo] La plus grande découverte scientifique grâce à l'IA (10'02" ; Invidious ; Youtube) : Le logiciel GNoME de la société Google DeepMind a proposé 380 000 nouvelles molécules potentiellement intéressantes. Après un processus de filtrage théorique des mollécules selon leurs stabilités et leur propriétés, les chimistes ont testé la création de 58 matériaux au cours de 355 expérimentations. En 17 jours, ils ont réussi à synthétiser 41 nouveaux matériaux (70%) non présents à l'état naturel sur la planète, soit la création de 2 nouveaux matériaux par jour ! Ce travail aurait théoriquement pris 800 ans sans l'aide du logiciel GNoME de Google DeepMind
1)
Sources :
  • 21/12/2023: IA > siecledigital.fr > Un ensemble de données utilisé pour la formation d'IA contient des contenus pédopornographiques :
    Une enquête menée par le Stanford Internet Observatory (SIO), dévoilée le 20 décembre, a mis en lumière la présence de plusieurs centaines d'images mettant en avant des abus sexuels sur mineur dans un ensemble de données. Ce dernier est utilisé par de nombreuses entreprises pour former des modèles d'intelligence artificielle (IA) générative. Plusieurs versions de Stable Diffusion formées à l'aide de données choquantes ? Connu sous le nom de LAION-5B, ce vaste ensemble de données a été exploité pour le développement du modèle de machine learning Stable Diffusion, utilisé par plus de dix millions d'utilisateurs en novembre. Contenant plus de cinq milliards d'images, de légende et de texte en tout genre provenant d'internet, celui-ci posséderait au moins 1 008 illustrations contenant des actes d'abus sexuels sur des enfants. …
  • 20/12/2023: IA > purl.stanford.edu > Identifying and Eliminating CSAM in Generative ML Training Data and Models :
    Abstract: Generative Machine Learning models have been well documented as being able to produce explicit adult content, including child sexual abuse material (CSAM) as well as to alter benign imagery of a clothed victim to produce nude or explicit content. In this study, we examine the LAION-5B dataset—parts of which were used to train the popular Stable Diffusion series of models—to attempt to measure to what degree CSAM itself may have played a role in the training process of models trained on this dataset. We use a combination of PhotoDNA perceptual hash matching, cryptographic hash matching, k-nearest neighbors queries and ML classifiers. This methodology detected many hundreds of instances of known CSAM in the training set, as well as many new candidates that were subsequently verified by outside parties. We also provide recommendations for mitigating this issue for those that need to maintain copies of this training set, building future training sets, altering existing models and the hosting of models trained on LAION-5B
2)
laboratoire de recherche robotique AI de l'Université de Stanford — Projet open source Mobile ALOHA de robots domestiques à tarifs accessibles au grand public (entraînement par l'humain, puis décision autonome