Propos croisés d’un philosophe et d’un physicien, avec Edouard Mehl, professeur de philosophie moderne et histoire des sciences et Michel de Mathelin, directeur du laboratoire ICube et vice-président Valorisation et relations avec le monde socio-économique.
Quelle est votre définition de l’intelligence artificielle ?
Edouard Mehl : Qu’est-ce que l’intelligence ? Elle peut être définie comme la capacité d’établir des rapports, de faire des liens. Longtemps, la relation de cause à effet a été tenue pour la seule relation « intelligible ». Mais avec l’IA on s’aperçoit qu’il y a un champ presque infini de rapports à étudier, dont la causalité n’est qu’un aspect infime. Il est évident que les machines ont pour ce faire une capacité très largement supérieure à nous, presque illimitée.
Mais cette définition de l’intelligence est insuffisante : le propre de l’intelligence humaine est de s’interroger sur ce qui constitue « le cadre ». Elle ne se contente pas de saisir et d’établir des rapports : elle a conscience de les saisir et le fait « à dessein », dans un but précis. Jusqu’à preuve du contraire, aucune machine ne fait cela, et si l’on s’en tient à cette définition plus stricte de l’intelligence (en tant que réflexion), la notion même d’intelligence artificielle devient douteuse, voire inintelligible.
Michel de Mathelin : Quand les ordinateurs ont commencé à avoir des possibilités s’apparentant aux capacités humaines, on s’est mis à parler d’intelligence… Les machines donnent l’impression d’être dotées d’une intelligence. Les performances des algorithmes permettent à un ordinateur d’avoir dans certains cas des capacités plus élevées que les humains. On a optimisé les réseaux de neurones artificiels, en créant des algorithmes par couches superposées. Aujourd’hui, on trouve des réseaux de 30 couches, qui effectuent des calculs en quelques secondes. Mais il faut qu’un humain ait tracé le schéma auparavant, qu’il ait, par exemple, fourni des images de scanner. La machine passe par une phase d’apprentissage, cependant elle ne fait que reproduire.
La machine passe par une phase d’apprentissage, cependant elle ne fait que reproduire.
Ces « machines intelligentes » impactent notre quotidien, voire notre évolution…
E.M. : Nous sommes à un tournant historique. Au XIXe siècle, on pouvait penser que les machines allaient travailler à notre place et que le temps ainsi libéré pourrait être consacré à la culture, à l’éthique, à l’esthétique… Aujourd’hui on s’aperçoit que l’intelligence artificielle envahit justement ces domaines de la vie sociale, de la création artistique, bref de l’humain. Pensons aux algorithmes qui décident maintenant de nos relations sociales, voire amoureuses selon une logique d’algorithmes qui déterminent la composition des couples. Mais est-ce là la logique de l’amour ? L’amour obéit-il à une quelconque logique ?
M. de M. : L’intelligence artificielle est présente dans de nombreuses applications. En médecine, elle permet par exemple de déceler automatiquement des tumeurs. Elle est également très utile dans le domaine du deep learning. Dans le champ du langage, des algorithmes sont capables aujourd’hui d’identifier des mots par analogie et d’entreprendre des fouilles de données très élaborées. D’autres recherches du laboratoire ICube portent sur la reconnaissance vocale. Autre application, les véhicules autonomes, dotés d’un système de reconnaissance de ce qui se passe autour d’eux. Tout cela n’est pas tout neuf, mais les moyens de calcul se développent de manière exponentielle et l’intelligence artificielle fait des progrès tous les jours, avec des impacts de plus en plus importants...
Ce que l’on appelle « progrès » induit-il aussi des risques ? Lesquels ?
E.M. : L’essentiel de l’intelligence n’est pas une pure capacité de mémoire : c’est aussi qu’elle n’est pas indifférente et qu’elle recherche du sens. Le risque majeur, aujourd’hui, est que l’intelligence artificielle devienne notre seul critère et notre seul modèle d’intelligence… Qu’elle déteigne sur nous, en sorte que nous devenions tous super-performants… et complètement artificiels. Mais à vrai dire, ce n’est déjà plus un risque, c’est une réalité, inquiétante : nous avons de plus en plus de mal à concevoir ce que doit être ce petit « supplément d’âme », que le développement des technologies dites « intelligentes » rend plus que jamais nécessaire.
Il ne nous reste, peut-être, qu’à nous réinventer nous-mêmes et à retrouver la capacité à faire quelque chose qui n’existe pas déjà, ni actuellement ni virtuellement. Autrement dit, à construire notre avenir et à en retrouver le sens, car c’est à cette seule condition que nous resterons vivants et libres.
C’est l’humain qui définit les règles, le « tout robot » n’existe pas !
M. de M. : Si la machine est une aide dans beaucoup de domaines, elle reste une assistante qui ne se trouve pas dans un processus de décision et ne répond qu’à ce qui a été programmé. C’est l’humain qui définit les règles, le « tout robot » n’existe pas !
Se faire dépasser par les machines ? Je ne pense pas que ce soit obligatoirement notre destin. L’intelligence artificielle ne nous prive pas de notre libre-arbitre. Mais tout dépend de la qualité de l’information dont disposent les citoyens. Sont-ils bien informés ? Quelles influences subissent-ils ? Les réseaux sociaux nous font vivre dans une bulle… Tout cela plaide en tout cas pour ne pas laisser les entreprises faire n’importe quoi. Il est indispensable que l’Europe exerce de meilleurs contrôles quant aux applications et aux usages de l’IA.
Les trois lois de la robotique formulées par l'écrivain de science-f iction Isaac Asimov sont parues pour la première fois en 1942. Une manière pour l’auteur de préciser l’état de « machine » des robots qui n’ont pour objectif que d’effectuer les tâches pour lesquelles les ingénieurs les avaient conçus.
Loi numéro 1 :
Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger ;
Loi numéro 2 :
Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
Loi numéro 3 :
Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.
Samuel, étudiant en L2 d’informatique
« J’adhère à l’intelligence artificielle. Ça n’a pas tellement changé depuis les années 1970-1980. Les réseaux de neurones existaient déjà. Il n’y a pas de risques qu’elle prenne le dessus ou se retourne contre nous. Par contre, le danger vient de l’utilisation qu’on en fait. Je citerais l’exemple du régime sécuritaire de la Chine qui l’utilise via son réseau social Wechat, l’équivalent de Facebook et Twitter réunis. Elle exclut les personnes qui n’y sont pas inscrites, même pour faire un crédit il faut faire partie de ce réseau. »