Du 11 au 21 octobre se déroule l’édition scolaire du festival Pariscience, qui permet aux classes d’assister à des projections gratuites de documentaires. Dans ce cadre, le film « Autopsie d’une intelligence artificielle » a été présenté à des lycéens. Rencontre avec son réalisateur et co-auteur, Jean-Christophe Ribot.
Pouvez-vous vous présenter ?
Je suis auteur-réalisateur de films documentaires pour la télévision. J’aborde principalement des thématiques scientifiques.
A qui s’adresse le documentaire ?
Le film s’adresse à tout le monde. L’enjeu était de rendre le sujet accessible à tous et de montrer quelles sont les limites de l’intelligence artificielle.
Comment avez-vous commencé à vous intéresser à l’IA ?
Je me suis toujours intéressé à ce sujet, et je voulais depuis longtemps y consacrer un film. Adolescent, j’étais un geek, j’aimais beaucoup la programmation, et je partageais un peu ce fantasme de recréer un « esprit artificiel ». Mais j’en suis assez vite revenu.
Aujourd’hui, j’essaie d’analyser l’engouement pour l’intelligence artificielle, promu notamment par la manière dont ce sujet est médiatisé. On retrouve souvent, même dans certains documentaires qui se veulent critiques, l’idée que l’IA serait une intelligence émergente, avec les mêmes capacités qu’un cerveau humain : c’est une mythologie que je trouve dangereuse.
Quel est le danger ?
Le premier danger est de réduire le cerveau humain à des circuits ex nihilo, qui feraient simplement des calculs. On voit cette idée dans toute une branche des neurosciences, qui se prête volontiers à cette métaphore.
L’autre danger est de laisser entendre que l’IA a des capacités au-delà de ce qu’elle a réellement.
Dans le film, nous donnons un exemple assez concret : quand on s’intéresse à la manière dont un mot prend sens chez un être humain, on se rend compte que l’expérience sensible, émotionnelle, qui a trait à un corps en chair et en os, est propre à l’être humain. Alors qu’un ordinateur va comprendre le mot « pomme » à travers des pixels ou d’autres mots qu’il connaît, l’humain va le comprendre grâce à toutes ses sensations : celle du fruit dans la paume de la main, du goût sur les papilles… La mémoire sensorielle et les émotions participent de cette intelligence.
Dans le film, vous abordez aussi les limites éthiques de l’intelligence artificielle. Est-ce que l’IA est un « faux » progrès pour l’humanité ?
C’est un vrai progrès, dans l’acception positive du terme « progrès. » Tant qu’on comprend l’intelligence artificielle comme un outil – comme on se servirait d’une calculatrice très sophistiquée. Là où ca devient problématique, c’est lorsqu’on l’utilise comme un prescripteur de foi auquel on se remet de manière aveugle. Aujourd’hui, on l’utilise pour démêler le vrai du faux, sans savoir comment le verdict est rendu. C’est le cas dans la sphère privée comme dans la sphère institutionnelle.
Pour exemple, on peut citer les algorithmes des applications de rencontre, qui recommandent des partenaires, ou bien les algorithmes qui déterminent les risques de récidive de prévenus, dans certains états d’Amérique. Cette pratique pose tout un tas de questions éthiques : quelles données sont entrées dans la machine ? Comment sont-elles analysées ? Qui a décidé de la programmation ? Dans quel but ?
La première chose à comprendre, c’est que les algorithmes de deep learning ne font ni plus ni moins que des statistiques. Ce sont des systèmes complexes d’analyse de données, mais sur le principe ce sont bien des statistiques : sur la base des données collectées dans le passé (par exemple, des caractéristiques sociologiques) on fait des prévisions sur le futur. On comprend bien le problème : pour un sociologue, les statistiques servent à montrer un état de la société, pour y apporter un regard critique et possiblement des solutions. Or aujourd’hui, les algorithmes ne servent qu’à préconiser quelque chose sur la base du passé, et renforcent donc l’état actuel des choses – qu’il soit satisfaisant ou non.
Par exemple, il y a un biais raciste aux Etats-unis, qui fait que l’on accorde un taux de récidive plus important aux afro-américains. En reprenant les données du passé, l’algorithme reproduit le même biais.
Quelle morale peut-on tirer du film ?
L’idée, c’est que nous, institutions, humains, puissions nous réapproprier nos choix. L’intelligence artificielle devrait être un outil d’aide à la décision, or elle est devenue prescriptrice de choix, un dispositif d’automatisation des choix individuels ou sociaux. Il est important de ne pas toujours s’en remettre à un pouvoir extérieur, détenu par ceux qui fabriquent les algorithmes (qui sont en grande partie des GAFAM : Google, Apple…) Nous devons être mis devant nos responsabilités, et se dire que nos choix nous appartiennent.
Est-ce que l’IA est un sujet particulièrement difficile à vulgariser ?
C’est difficile, oui. Tout l’enjeu pour nous était de bien comprendre, concrètement, comment l’intelligence artificielle fonctionne – sans passer par des métaphores. Et les informaticiens ne sont pas toujours de très bons pédagogues… Une fois qu’on a le principe de base, on comprend que l’IA est applicable à de nombreux domaines qui s’apparentent à ce que l’humain a de plus spécifique (le langage, la composition de musique…) mais aussi qu’elle a des limites : elle ne peut créer un morceau de musique qu’à partir de ce qui a déjà été produit par des humains dans le passé.
La difficulté était donc d’essentialiser la question technologique, pour la mettre en lien avec des questions plus générales. Quand on y arrive, c’est assez satisfaisant.
Le film apparaît également dans l’édition scolaire du festival Pariscience : est-ce que c’est un sujet auquel les jeunes doivent être particulièrement formés aujourd’hui ?
C’est essentiel, pour les jeunes particulièrement parce qu’ils sont de grands usagers de l’intelligence artificielle (par exemple avec les applications de rencontre). L’enjeu est énorme pour eux : il faut qu’ils comprennent comment ça fonctionne, pour pouvoir décider de suivre, ou non, ses prescriptions. Si on veut avoir le pouvoir sur nos choix, on doit se demander comment les algorithmes que nous utilisons fonctionnent, mais aussi pourquoi, quels sont les intérêts de ceux qui les proposent… C’est important politiquement, et ça pose la question de la liberté pour les individus.
Modération par la rédaction de VousNousIls. Conformément à la loi relative à l'informatique, aux fichiers et aux libertés, vous disposez d'un droit d'accès, de modification, de rectification et de suppression des données vous concernant. Pour exercer ce droit adressez-vous à CASDEN Banque Populaire – VousNousIls.fr 1 bis rue Jean Wiener – Champs-sur-Marne 77447 Marne-la-Vallée Cedex 2.