L’intelligence artificielle (IA) ne laisse personne indifférent, que l’on imagine un monde idéal où les travaux pénibles reviendraient à des robots ou bien un contrôle dictatorial par des androïdes. « L’IA n’est pas un mot magique que l’on doit employer dans tous les sens, tranche Isabelle Ryl, à la tête de l’institut Prairie, spécialisé en intelligence artificielle. C’est un outil. Un outil performant, certes, mais rien de plus aujourd’hui. »

L’intelligence artificielle n’est, pour l’instant encore, ni plus ni moins qu’un ordinateur qui réalise des fonctions effectuées par des humains comme celles de reconnaître des éléments sur une image ou de répondre à une question orale. Mais, avec le développement du deep learning, le domaine a connu un développement sans précédent. Aujourd’hui, une IA sait identifier des chiens et des chats, recommander un plombier, éviter une collision en voiture, retoucher une photographie, détecter des tumeurs cancéreuses… Couplée à un robot, elle sait ouvrir des portes, soulever des charges lourdes ou sauter par-dessus des obstacles. Bonne à tout faire ? Non.

« Les IA ne sont pas autonomes »

« Pour l’instant, les IA ne sont pas autonomes », rappelle Jean-Claude Heudin, chercheur en IA et auteur de Intelligence artificielle. Manuel de survie. « Pour mettre au point ces machines, rassembler et préparer les données nécessaires, il faut des interventions humaines », souligne-t-il. La plupart des IA suivent un « apprentissage supervisé ». Cela revient à leur montrer des milliers de photos indiquant « ça c’est un vélo, ça c’est un piéton », pour qu’ensuite, face à une photo, l’IA sache distinguer un piéton et un vélo. « C’est nettement moins performant que notre cerveau qui n’a pas besoin de millions d’images pour apprendre la différence ! », relativise Jean-Claude Heudin.

C’est aussi monomaniaque : « Une IA entraînée à détecter des tumeurs du foie sur une radiographie ne saura pas le faire pour des tumeurs des poumons, et pourra encore moins identifier des troupeaux d’éléphants dans des images satellites », pose Isabelle Ryl. La technologie de reconnaissance d’images est la même, mais l’entraînement diffère grandement. Attention, enfin, aux biais. Une IA qui classe des CV d’ingénieurs ne doit pas écarter les femmes sous prétexte que c’est un métier où elles sont sous-représentées et reproduire les biais sexistes ou racistes de la société.

Apprentissage par renforcement

Autre possibilité, l’apprentissage par renforcement. Par exemple, pour être imbattable aux échecs, une IA commence par perdre beaucoup de parties. Elle apprend de ses erreurs, dans des proportions démesurées. Surtout, les machines n’ont pas conscience d’elles-mêmes ni du monde qui les entoure, ce qui oblige à plus d’essais. « Un être humain qui passe son permis de conduire n’a pas besoin de passer la voiture par-dessus la falaise pour savoir que c’est une mauvaise idée. Un ordinateur aura besoin de le simuler, car il ne fait pas le lien falaise = tomber = danger », compare Isabelle Ryl.

« Depuis le premier réseau de neurones artificiels, le perceptron de l’Américain Frank Rosenblatt en 1958, cette technologie a gagné en performance mais reste très simple comparée à notre cerveau », explique Jean-Claude Heudin. Pour effectuer le « bond » suivant, beaucoup de recherches s’orientent désormais sur la façon dont les enfants apprennent pour créer une représentation globale du monde.

____________________________________

Les mots de l’IA

Algorithme et intelligence artificielle

Un algorithme est une suite de calculs ou d’instructions pour résoudre un problème. Les algorithmes peuvent être utilisés en dehors de l’informatique. L’intelligence artificielle (IA), un terme apparu dans les années 1950, fait le pari de simuler tout ou partie de l’intelligence humaine.

Machine learning

Ou apprentissage automatique. C’est un terme générique qui signifie que l’on apprend à l’IA à prédire ou à décider à partir de bases de données, en utilisant une approche statistique.

Deep learning

Ou apprentissage profond. C’est l’une des branches de l’apprentissage automatique, qui permet d’entraîner plusieurs couches de réseaux de neurones artificiels.

Un réseau de neurones artificiels

Il s’agit d’une architecture informatique censée imiter les neurones humains, où chaque nœud de calcul est un neurone artificiel qui peut envoyer des informations à d’autres nœuds, avec une importance variable.

Big data

Il désigne simplement une très grande quantité d’informations. Les IA permettent de fouiller ces gigantesques corpus, et en retour, ces données servent à améliorer leur « intelligence ».

Les biais d’apprentissage

Ils signifient que les données à partir desquelles on entraîne l’IA ne sont pas justes ou équitables, et reflètent des biais cognitifs qui existent chez l’être humain. Un corpus de textes racistes donnera par exemple une IA raciste.

Chatbot

Un chatbot ou agent conversationnel, est un programme informatique auquel les utilisateurs peuvent poser des questions pour obtenir des informations.

Robot social

C’est un robot, humanoïde ou non, autonome et conçu pour dialoguer avec l’être humain. Un avatar est une représentation numérique d’un individu ou d’une AI, sans présence physique.

L’éthique « by design »

C’est un procédé impliquant d’anticiper, dès la conception, les questions éthiques (valeurs, notion du bien et du mal…) auxquelles pourraient être confrontées les IA, pour les aider à agir de la meilleure façon possible.

Singularité

Elle désigne le point futuriste où les IA dépasseraient l’intelligence humaine en s’améliorant elles-mêmes. Le progrès ne serait alors plus qu’aux mains des machines.”


Source : la-croix.com, “L’intelligence artificielle, entre promesses et craintes”, par Audrey Dufour, publié le 1/2/21. https ://www.la-croix.com/Sciences-et-ethique/Lintelligence-artificielle-entre-promesses-craintes-2021-02-01-1201138253