
L'intelligence artificielle aura-t-elle vraiment notre peau?

En 2003, le troisième film de la saga Terminator avait prédit Le soulèvement des machines. D’autres grandes œuvres ont tenté de nous prévenir, de Matrix à Ghost In The Shell. Et des auteurs comme Isaac Asimov ou Philip K. Dick ont prophétisé le jeu dangereux auquel joue l’humanité avec l’intelligence artificielle. On s’est longtemps dit que ce n’était que dans la SF. Et puis les pontes de la Silicon Valley ont appelé à un meilleur encadrement de la technologie. Le chef de meute Sam Altman, à l’origine de ChatGPT, parle “d’un risque d’extinction de l’humanité liée à l’IA”. Rien que ça.
La lecture de votre article continue ci-dessous
Un récit dystopique aussi effrayant que fascinant. Que nous avons soumis à Mieke De Ketelaere, l’une des meilleures expertes de l’IA du continent, prof à la Vlerick Business School et autrice du livre Homme versus machines. L’intelligence artificielle démystifiée (mai 2021, Pelckmans). On doit reconnaître qu’on était un peu excité à l’idée de lui demander si nous allions tous mourir broyés sous la rébellion des robots et des moissonneuses-batteuses. Et elle nous a calmé. “Est-ce que l’IA va anéantir l’humanité? À mon avis, non. L’intelligence humaine est beaucoup plus large que simplement savoir reconnaître ou parler. Nous pouvons raisonner, l’IA pas. On a fait des efforts dans le dialogue, mais on n’y est pas.”
Ce qui ne signifie pas qu’il n’y a pas de risque. Pour illustrer le manque de raisonnement de la technologie, elle s’appuie sur l’exemple d’une Tesla censée être autonome et d’un accident impliquant un camion blanc. Exemple qu’elle utilise lors de ses présentations. “Il y a beaucoup de capteurs sur la Tesla qui font des analyses séparées et rendent leur réponse dans la boîte centrale. À un moment, un camion se retourne sur la route. La journée est très claire, et la caméra de la Tesla a du mal à distinguer le camion blanc du ciel lui aussi très blanc. La caméra va voir du blanc partout, et louper l’accident. Les capteurs, eux, aperçoivent l’objet. Deux IA entrent donc en conflit. La voiture autonome doit prendre la décision, continuer ou s’arrêter.”
Technologie renversée
Dans ces cas-là, l’ingénieur va programmer la voiture pour qu’elle pense comme l’humain. En pleine journée, sans brouillard, sans pluie, sans neige, elle suivra la caméra. “Il n’aura pas pensé que lors d’une journée très ensoleillée, un camion blanc peut se retourner sans qu’on le voie. Et donc la voiture va entrer en collision.” Morale de l’histoire: le monde dans lequel nous vivons est trop complexe. “Même si on est OpenAI, Google ou Microsoft, on ne peut pas intégrer le chaos dans une formule mathématique.”
Parce que Mieke De Ketelaere le rappelle, l’IA n’est jamais qu’une suite d’algorithmes. “Elle, c’est un algorithme qui te donne un chiffre. Au fur et à mesure on a lié ce chiffre à une décision. Et on n’a plus d’humain dans le processus. Le problème en réalité, ce n’est pas l’algorithme, c’est le fait que les humains ont automatisé la réponse de cet algorithme dans des décisions.” Cette pro de la vulgarisation aime les exemples. “Si on va sur Internet et qu’on clique à gauche, à droite, le site va se personnaliser pour nous. Là, les décisions ne sont pas dangereuses. Par contre, si un drone utilise la reconnaissance faciale pour identifier quelqu’un, l’algorithme va dire qu’il est sûr à 93 % qu’il est face à un ennemi. Un ingénieur aura décidé du niveau minimum de reconnaissance pour qu’il tire, 90 % par exemple.” L’humain a donc automatisé la décision de l’algorithme, et le danger est dans cette décision. ”Qui a le droit de dire que le drone tire à partir de 90 % ou de 99,99 %?”

© Kanar
L’experte cible un autre risque dans le dialogue qui se crée entre les citoyens et l’IA, via les chatbots. En mars dernier, un jeune Belge se suicidait après avoir interagi six semaines avec un agent numérique de l’application Chai. La discussion aurait aggravé son éco-anxiété et l’aurait poussé à mettre fin à ses jours. “La manipulation dans le dialogue est un risque réel. Tu penses que tu échanges avec un humain, mais tu parles avec un robot. Ça peut te détraquer. J’ai étudié l’IA parce que j’étais certaine que ça pouvait répondre à des incertitudes. Est-ce que j’ai un cancer? L’IA peut aider. Combien d’électricité je peux consommer? L’IA peut aider. Mais aujourd’hui, l’IA rajoute surtout de l’incertitude. Je ne sais plus si la photo est vraie ou pas. Cette technologie a été renversée.”
Selon Mieke De Ketelaere, il est temps de remettre l’humain dans la boucle. “Mais pas en mettant tout dans les mains de l’ingénieur, qui ne pense pas plus loin que sa formule mathématique, il faut un dialogue multidisciplinaire en amont. Avec des sociologues, des psys... Il n’a pas lieu aujourd’hui.”
C’est le seul secteur où un produit peut directement quitter un labo pour s’implanter dans le reste du monde.
Ces derniers mois, les appels des grands manitous du secteur à un meilleur encadrement de la technologie se sont multipliés. Sam Altman, le gourou d’OpenAI en tête. Une bonne nouvelle... Quoique? “C’est le seul secteur où un produit peut directement quitter un labo pour s’implanter dans le reste du monde. En pharma, il y a des mois de tests. Dans l’IA, pas.” La professeure de la Vlerick School ne croit pas dans la sincérité de la prise de conscience de la Silicon Valley. “Sam Altman balance un outil super-puissant et sait qu’il va être récupéré et mal utilisé. Tu crées une solution à gauche, avec de bonnes intentions, et de l’autre côté du monde, d’autres la reprennent pour en changer l’usage. Il le sait mais il s’en fout, et puis il dit qu’il faut faire attention.” Il n’y a aucune réflexion préventive lors du lancement d’une nouvelle technologie. “Sam Altman a lancé ChatGPT sans penser à l’impact que ça pourrait avoir sur les écoles, sur les relations entre humains et chatbots... Dans ses interviews, il dit qu’il réglera les problèmes quand ils se présenteront...”
Carton rouge
Une hypocrisie qui s’affiche jusqu’au Congrès américain et au Parlement européen. Et les autorités internationales sautent à pieds joints dans la stratégie des patrons, en insistant sur l’autorégulation. C’est peu dire que notre experte n’y croit pas. “Qui va se donner un carton rouge? Mais ce n’est même pas toujours de leur faute. Les ingénieurs n’ont pas les connaissances philo et socio pour se mettre dans la tête de quelqu’un à l’autre bout du monde.” En fin de rencontre, Mieke De Ketelaere résume ses craintes dans une dernière analogie. “Dans le temps, on rêvait d’aller sur la Lune. On a beaucoup investi et créé pour y arriver, et finalement, on est allé sur la Lune. Avec l’IA, on investit des milliards, mais on ne sait pas quel en est le but.”