Suite à trois recours déposés contre le choc des savoirs, dont un par la sénatrice écologiste Monique de Marco, le rapporteur public du Conseil d’Etat demande d’annuler la mise en place des groupes de niveau au collège, soit le cœur de la réforme portée par Gabriel Attal. S’il faut encore attendre la décision du Conseil d’Etat, son avis pourrait être suivi.
Intelligence artificielle : un colloque au Sénat sur les enjeux d’« une révolution encore plus profonde que la révolution industrielle et numérique »
Par François Vignal
Publié le
Le sujet est devenu incontournable. La classe politique s’empare, petit à petit, de la question vertigineuse de l’intelligence artificielle. Les macronistes et le RN ont commencé, et maintenant les LR travaillent à leur tour le sujet. Le groupe LR du Sénat a organisé jeudi un colloque d’une journée sur « l’IA », 10 jours après une « nuit de l’intelligence artificielle », organisée par le parti présidé par Eric Ciotti. Le président du groupe LR, Bruno Retailleau, qui s’était présenté face au député pour la tête du parti, mène donc aussi de son côté ce travail de fond, qui crée « beaucoup de peurs et beaucoup d’espoirs », résume en ouverture le sénateur LR de Vendée.
« Jamais une IA ne pourra avancer la répartie que Gérard Larcher a eu face à Jean-Luc Mélenchon », lance Bruno Retailleau
Si le sujet peut faire peur, il n’empêche pas une pointe d’humour. « Est-ce que demain, une intelligence artificielle pourra remplacer Gérard Larcher ? J’ai une certitude. Jamais une IA ne pourra avancer la répartie que Gérard Larcher a eu hier, face à Jean-Luc Mélenchon », lance dans un sourire Bruno Retailleau, en référence au « ferme ta gueule », lâché par le président du Sénat. Autre question, plus réaliste, posée par le patron du groupe LR : « Est-ce qu’une IA pourra aider un sénateur à faire sa campagne sénatoriale ? »
Un constat s’impose : entre « les enjeux technologiques » et « les enjeux anthropologiques », la réflexion est indispensable face à l’IA, relève Bruno Retailleau, qui appelle à « un discours de raison », une nécessaire « prise de recul », sans tomber dans la « décroissance ». Et sans oublier que « derrière la machine, il y a le machiniste », autrement dit l’homme.
« L’IA ne vise pas à remplacer l’humain, mais à lui faciliter la tâche », selon Joëlle Barral, directrice de la recherche en IA de Google Deepmind
En invitée de marque, la française Joëlle Barral, directrice de la recherche en IA de Google Deepmind, l’entreprise de Google spécialisée dans l’intelligence artificielle (voir photo). Le géant américain vient de présenter la veille Gemini, sa nouvelle IA censée concurrencer ChatGPT, lancé il y a seulement un an, et devenu la star du secteur des IA génératives, c’est-à-dire capable de générer des textes ou des images, à partir d’instructions. Joëlle Barral commence par donner une définition simple de l’IA : « L’ensemble des technologies qui permettent aux machines d’apprendre ». Si « l’on a connu un point d’inflexion l’année dernière, c’est une technologie qu’on utilise depuis longtemps. Google Map, c’est une prédiction qu’on peut faire par les IA », explique la responsable de Google Deepmind, qui ajoute : « L’IA est dans notre poche depuis un certain nombre d’années de manière assez discrète ».
Pour donner une idée de la mesure de ce qu’il se passe, Joëlle Barral explique que « c’est une révolution encore plus profonde que la révolution industrielle et la révolution numérique ». Elle tente malgré tout de rassurer : « L’IA ne vise pas à remplacer l’humain, mais à lui faciliter la tâche ». Une vision un peu idyllique tempérée par Edouard Fillias, fondateur de l’agence Jin :
« L’hémicycle du Sénat façon Star Wars »
Il faut bien comprendre que « l’IA est déjà là, ce n’est plus de la science-fiction », souligne le responsable de l’agence de com’. Que ce soit sur le site de commande en ligne de Carrefour, ou l’application HeyGen, qui peut traduire vos propos dans une autre langue, en gardant votre voix, ou le désormais célèbre MidJourney, l’IA capable de générer des images. Exemple donné avec « l’hémicycle du Sénat façon Star Wars »…
« Nous ici, on redoute une application qui pousserait des amendements comme un charcutier pousse des saucisses », sourit Bruno Retailleau, « on va emboliser complètement le Parlement ». Bref, les possibilités sont multiples. Mais promis, cet article a été écrit sans l’aide d’aucune IA générative.
« Révolution en cours » dans le secteur de la défense, avec la question « des robots tueurs »
Au fil de la journée et des tables rondes, les nombreux thèmes que touche l’IA sont écumés. Comme l’ntelligence artificielle et la défense. La sénatrice LR Christine Lavarde, présidente de la délégation sénatoriale à la prospective, évoque la question « des robots tueurs » et des « réflexions éthiques » qui en découlent. Antoine Bordes, vice-président de Helsing, entreprise de la défense, nous explique qu’il y a probablement « des capacités d’IA embarquées sur les drones kamikazes russes » utilisés en Ukraine. Plus globalement, ce sont des « questions de souveraineté et d’équilibre stratégique ». Face « à la révolution en cours », la question est « comment réussir à prendre le train », alerte Antoine Bordes, qui souligne l’enjeu de la production des puces, « qui sont fabriquées à Taiwan ». Sur le plan opérationnel, l’IA est vue comme une aide à la décision, face à la multiplication des données. « L’enjeu sera de faire le tri pour avoir la capacité de décision rapidement », explique cet ancien de Facebook.
Un peu plus tard, dans l’après-midi, le PDG de Dassault Aviation, Eric Trappier, y va de sa formule et de son clin d’œil cinématographique : « Notre problématique, à Dassault, c’est est-ce qu’on met un pilote dans l’avion ? Est-ce qu’on met l’IA dans l’avion demain ? » En réalité, « ça commence » déjà. « Il faudra contrôler ces algorithmes », avec la question cruciale, pour l’aviation, « de la fiabilité ». « Un avion sans pilote, ça ne viendra pas rapidement. Mais peut-être qu’un pilote pourra piloter, quand l’autre se reposera », imagine le PDG pour le civil. Côté défense, les algorithmes vont bien sûr jouer un rôle, dans un contexte « avec de plus en plus de drones ». Mais il le rappelle :
« L’IA a la capacité de diagnostiquer, 10 ans avant, s’il y a un risque de décéder d’un cancer de la prostate »
Autre domaine : la santé. Les applications sont larges. Avec déjà « la capacité de diagnostiquer, 10 ans avant, s’il y a un risque de décéder d’un cancer de la prostate, ou s’il y a d’autres risques », raconte Jean-Emmanuel Bibault, cancérologue à l’hôpital Georges Pompidou. Ce qui implique « une réflexion éthique de le connaître, un côté anxiogène », mais aussi la possibilité « de prévenir ce risque, par des traitements ».
Des utilisations sont aussi possibles dans l’analyse de l’imagerie médicale. Et l’IA fait déjà « mieux que des dermatologues pour repérer des lésions de la peau », explique le médecin. « Mais elle est très mauvaise pour les détecter sur les peaux noires ! » Pourquoi ? Car l’apprentissage de l’IA s’est fait avec « très peu d’images de peaux noires ». On touche ici aux « biais d’apprentissage » des IA.
Des IA qui font mieux que les médecins pour les diagnostics
L’IA n’en fait pas moins des progrès vertigineux. « Pour l’examen écrit de médecine aux Etats-Unis ChatGPT 4 a 85 % de taux de bonnes réponses… » « L’IA pose aussi des diagnostics à partir de tableaux cliniques de symptômes, avec 87 % de bonnes réponses », quand « les médecins humains ont un taux de 65 % de bonnes réponses », explique le cancérologue. De quoi, non pas remplacer le médecin, mais « aider au diagnostic sur les maladies rares » par exemple.
Jean-Emmanuel Bibault alerte sur « un risque, dans le futur : que les médecins ne soient pas capables de vérifier si ce que fait l’IA est bon ». Autrement dit, c’est le risque d’une perte de savoirs, à force de s’appuyer sur ces technologies. Si le médecin du futur devrait être moins dans la technique, il lui semble indispensable de ne pas lâcher les connaissances, comme la formation à la radiologie, même si l’IA fait mieux.
« C’est un chambardement dans le système éducatif et pour les enseignants »
Les domaines qu’investit l’IA sont multiples. Depuis New-York, Jérôme Pesenti, fondateur de Sizzle AI, application qui aide les élèves à décrypter leurs devoirs et à avancer, aborde le domaine de l’éducation. Est-ce la fin des professeurs bientôt ? Une chose est sûre, « c’est un chambardement dans le système éducatif et pour les enseignants. Il y a un changement radical, en quelques mois ». Les élèves utilisent déjà allégrement ChatGPT. « Il ne faut pas débattre, s’il faut l’utiliser ou pas. Il faut s’adapter. On n’a plus le choix », tranche Jérôme Pesenti, ancien vice-président de l’IA chez Meta (ex-Facebook).
Il reconnaît que le recours à l’IA peut poser des problèmes, « si ChatGPT sert à tricher », ou soulève des questions « de droits d’auteur ». Mais l’avenir de l’éducation à la sauce IA, selon Jérôme Pesenti, sera « une éducation beaucoup plus personnelle, beaucoup plus engageante et beaucoup plus efficace ». Il ajoute :
Pour le fondateur de Sizzle AI, « on ne va pas remplacer les gens avec l’intelligence artificielle, mais ils vont évoluer. Mais ceux qui n’apprendront pas sont à risque » de perdre leur emploi.
« Je suis très inquiet pour l’imparfait du subjonctif. Je suis très inquiet sur ce que va devenir la langue », lance Etienne Klein, qui alerte sur les questions éthiques
Et l’éthique dans tout ça ? C’est la question posée derrière la table ronde « l’IA, un alter ego de l’homme ? » Etienne Klein, philosophe des sciences et directeur du Larsim (laboratoire de recherche sur les sciences de la matière), qui dépend du CEA, s’interroge sur la possibilité « d’enregistrer la voix d’une personne décédée. Est-ce bien ou pas ? Ça aide à faire son travail de deuil ? » Autre question, quand il demande « quelle est notre singularité ? » « Est-ce qu’on ne va pas perdre la parole, car nous allons nous mettre à parler comme les machines ? Tous les textes produits sont très plats, on s’ennuie un peu. Je suis très inquiet pour l’imparfait du subjonctif. Je suis très inquiet sur ce que va devenir la langue », alerte Etienne Klein.
Le philosophe des sciences explique que nous avons dépassé l’âge où « la technique est vectrice de connaissance scientifique. Le pari des Lumières est perdu ». Car aujourd’hui, « plus un objet technique est complexe, moins il est nécessaire de connaître comment il fonctionne. L’IA nous éloigne de la science ». Et de s’interroger : « Comment maintenir dans ce monde un esprit scientifique ? »
« Il y a pas mal de gens qui pensent que l’IA, telle qu’elle consomme, n’est pas durable du tout »
Ethique de l’écologie aussi, car l’intelligence artificielle est grande consommatrice d’électricité. « Il y a pas mal de gens qui pensent que l’IA, telle qu’elle consomme, n’est pas durable du tout », pointe Etienne Klein. Autre question cruciale encore, celle « du transhumanisme », d’un humain augmenté grâce à l’IA. « Mais entre les lignes, ses défenseurs, parient plutôt sur l’éminence de l’effondrement de l’humanité. En réalité, ce sont des survivalistes », pense le directeur du Larsim.
Olivier Babeau, président de l’Institut Sapiens, souligne aussi le pouvoir des IA, qui peut paraître irrépressible. « C’est le film Her. L’idée que vous puissiez être plus proche de quelque chose, qui vous donne l’impression de la réaction, c’est puissant. Les gens vont y trouver un avantage », pense-t-il, « mais la plupart du temps, si c’est gratuit, c’est que c’est vous le produit, comme on dit ».
« Il faut une réglementation, à condition de ne pas détruire la possibilité d’innover », selon François-Xavier Bellamy
François-Xavier Bellamy, chef de file des eurodéputés LR, fait son entrée pour parler de l’épineuse question de la régulation de l’IA. « Nous sommes devenus les auxiliaires de nos machines », « le capital, ce sera le contrôle de l’attention », et la capacité « à garder la maîtrise de notre propre attention », pense celui qui est professeur de philosophie à l’origine. François-Xavier Bellamy s’inquiète « des dangers que l’IA constitue pour notre démocratie », avec notamment « les deepfake », et dans le domaine de l’information, « la création de faux sites d’infos, entièrement artificielles » qui colleront à « une bulle de convictions » visée.
Donc « bien sûr, il faut une réglementation », soutient ce proche de Bruno Retailleau, qui évoque « l’IA act, le texte européen sur l’IA ». Mais « il faut une réglementation, à condition de ne pas détruire la possibilité d’innover ». En la matière, il souligne que le règlement de protection des données européen, le RGPD, est « aujourd’hui un problème majeur pour faire grandir les algorithmes des IA », car limitant l’accès aux données. Celui qui devrait mener la liste LR aux européennes ajoute :
A ses côtés, William Eldin, cofondateur de l’entreprise XXII, se dit lui carrément « pour une autorégulation » des entreprises. S’il ne va pas jusque-là, François-Xavier Bellamy appelle à « ne pas brider l’innovation, par un excès de contrainte ». Autrement dit, « trouver le juste milieu » pour « ne pas être dans le farwest de l’intelligence artificielle ».