octobre 2019

Si lointaine, si proche intelligence artificielle

Commerce, santé, transports, éducation… Pas une sphère de notre quotidien que l’IA n’ait infiltré ou tenté de le faire. Faut-il se réjouir de ce mouvement présenté comme inéluctable ? S’en méfier ? Qui a la main sur ces algorithmes et que sont-ils capables de faire ? Le point avec Etienne Ollion, chargé de recherche à l’Université de Strasbourg et au CNRS*, qui travaille notamment sur les effets de la numérisation sur nos sociétés.

Quelles sont les origines de l’IA ?
L’IA est aussi vieille que l’informatique. Avec les premières machines vient l’idée de leur déléguer une partie des tâches humaines. 1951 est l’année du premier programme informatique de jeu d’échecs. Parmi ses pionniers, on trouve notamment Alan Turing, le célèbre mathématicien britannique. Mais son développement n’a pas été linéaire depuis, bien au contraire.

Pouvez-vous y revenir ?
Dès les années 1950, ces technologies font naître de grands espoirs. Mais ceux-ci ont été déçus, et ce projet fut presque abandonné dans les années 1960. Une seconde phase a commencé dans les années 1980, plus technique et centrée sur les « systèmes experts ». Puis une troisième depuis le milieu des années 2000. Dans cette évolution cyclique, assimilable à un mouvement de balancier, chaque développement a été suivi d’une période de crise. On parle d’ailleurs d’AI summers et d’AI winters1 pour désigner ces phases. Pendant les premières, les promesses sont massives. On annonce une révolution du quotidien, et l’engouement dépasse largement le cercle des chercheurs. Nous sommes aujourd’hui dans un troisième phase d’enthousiasme pour l’IA, qui semble durer.

Trois facteurs ont joué. L’augmentation de la puissance de calcul des ordinateurs bien sûr, les incroyables volumes de financement, et l’accroissement exponentiel des données

Qu’est-ce qui a changé ?
Trois facteurs ont joué. L’augmentation de la puissance de calcul des ordinateurs bien sûr, les incroyables volumes de financement, et l’accroissement exponentiel des données à disposition. Des outils inventés dans les années 1980, mais abandonnés depuis, sont très performants aujourd’hui – une fois qu’on les « nourrit » de plus de données. Celles-ci sont une matière première indispensable pour apprendre à l’ordinateur à identifier des motifs récurrents (patterns) qu’il n’a pas encore vus. C’est pour cela qu’on parle de machine learning.

Dans quels domaines ces progrès sont-ils les plus flagrants ?
Ils sont nombreux, mais un bon exemple, c’est la traduction automatique. Des progrès énormes ont été réalisés ces dix dernières années, étant donné la complexité de la tâche. Aujourd’hui, on peut comprendre en direct ce que dit un interlocuteur qui s’exprime en langue étrangère ! La technologie de base existait déjà, mais elle a été améliorée par l’IA : on a « ajouté une couche de neurones » pour améliorer la performance.

Cela laisse augurer de grands changements dans le monde du travail…
Effectivement. Des métiers comme traducteur ou secrétaire vont être bouleversés. C’est déjà le cas pour les services clients, remplacés par des chatbots efficaces. Est-on face à un séisme de l’ampleur de la Révolution industrielle du XIXe siècle, affectant tous les domaines de la vie sociale ? Il est encore trop tôt pour le dire… Par contre, on voit les premiers effets sur le marché du travail. Le sociologue Antonio Casili a mis en évidence l’émergence de « prolétaires du clic ». Il existe des fermes à clics en Asie, mais on peut aussi en trouver en France. On observe une polarisation entre des ingénieurs très bien payés pour écrire les algorithmes que d’autres vont exécuter à travers des micro-tâches aliénantes et sous-payées.

Attachons-nous aux avantages offerts par l’IA…
Et ils sont nombreux : amélioration du diagnostic médical grâce à une meilleure détection des maladies, réduction de l’insécurité routière au moyen des véhicules autonomes, meilleure compréhension entre humains via la traduction automatique... En sciences, les outils offerts par l’IA nous permettent d’appréhender plus finement notre monde, qu’il s’agisse de mieux connaître une population ou de comprendre l’interaction entre masses océaniques et gazeuses…

En tant que chercheur, comment utilisez-vous l’IA ?
À la fois comme objet d’étude, mais aussi comme outil. Grâce aux algorithmes, on peut mettre au jour des effets inattendus, que le chercheur n’aurait pas remarqués ou n’aurait même pas eu l’idée d’aller chercher. On peut aussi produire de nouvelles données. Mais la méthode n’est pas sans difficultés...

C’est-à-dire ?
Les méthodes les plus fréquentes sont conçues pour offrir une prédiction, mais pas toujours une explication. Savoir si un phénomène aura lieu est utile, mais on a aussi, et surtout, besoin de savoir pourquoi. Beaucoup de réflexions ont lieu à ce sujet. L’IA questionne les pratiques scientifiques.

Ces débats sur l’IA ne s’appliquent pas qu’aux sciences ?
Non, à l’échelle de la société toute entière aussi, qu’on pense à l’utilisation de l’IA dans les dossiers de prêt bancaire, d’assurance santé dans certains pays, voire de sélection à l’entrée de l’université. Ou encore pour le profilage commercial. Le risque est donc d’enfermer les gens dans des choix qui vont conditionner leur vie, et cela automatiquement, et sans qu’on puisse vraiment l’expliquer. Les enjeux sont vraiment centraux, comme le montre le projet dystopique du gouvernement chinois. Avec le social credit score, on attribue une note aux individus sur la base de leurs comportements, leurs achats, leurs réseaux d’amis… et cela conditionne les emplois qu’ils peuvent obtenir, ou simplement leur capacité à prendre l’avion ou le train.

Il est urgent pour les décideurs publics de reprendre la main, c’est un enjeu démocratique

Ce qui pose la question de la régulation de l’IA…
Et en particulier de sa régulation publique. La majorité des investisseurs dans l’IA (en recherche et développement comme dans l’applicatif) sont des sociétés privées : Facebook, Microsoft, Google et son équivalent chinois Baidu. Il est urgent pour les décideurs publics de reprendre la main, c’est un enjeu démocratique. C’est aussi un enjeu scientifique : la plupart de la recherche est faite du côté privé à l’heure actuelle.

* UMR 7363 Sociétés, acteurs, gouvernement en Europe (Sage).
1 IA = Intelligence artificielle, Artificial Intelligence (AI) en anglais.

Glossaire

Machine learning ou apprentissage automatique :
processus par lequel les ordinateurs développent la reconnaissance de schémas ou l’aptitude à apprendre continuellement et à faire des prévisions basées sur des données, puis à faire des ajustements sans avoir été spécifiquement programmés pour cela. 

Deep learning ou apprentissage profond :
technologie d’apprentissage dérivé du machine learning, basée sur des réseaux neuronaux artificiels multicouches. Elle permet la reconnaissance vocale et faciale par exemple.

Business intelligence ou informatique décisionnelle :
processus technologique qui analyse les données pour permettre aux dirigeants de mieux piloter leur entreprise.

Chatbot ou agent conversationnel :
programme informatique capable de simuler une conversation en langage naturel.

Data scientist ou spécialiste de la science des données :
expert de la gestion et de l'analyse pointue de données massives (big data).

Propos recueillis par Elsa Collobert