A l’heure des fake news et deepfake, l’intelligence artificielle semble davantage une ennemie qu’une alliée de la démocratie. D’autant que face à la révolution technologique des fausses informations, les volontés et les moyens pour les combattre restent faibles.
Dans un monde hyperconnecté où les journalistes doivent produire rapidement des quantités massives d’informations, les algorithmes ont trouvé leur place. Dans les médias français, attachés aux points de vue et aux interprétations, les robots rédacteurs n’ont pas encore remplacés les journalistes. Mais des « moteurs de rédaction » sont déjà utilisés pour produire des articles de résultats sportifs ou d’élections. De telles pratiques ne sont pas encadrées juridiquement. « Un journal devrait être obligé de mentionner que tel ou tel article a été écrit par une machine. Or, il existe aujourd’hui un grand flou juridique », déplore Philippe Viallon, professeur et responsable de la chaire Unesco de l’Université de Strasbourg sur les pratiques journalistiques et médiatiques.
Il met aussi en garde sur les liens entre intelligence artificielle et fonctionnement des démocraties. « Les journaux mettent en place des équipes de journalistes aguerris, comme les décodeurs du Monde par exemple, mais l’intelligence artificielle n’est pas encore mise au service de la liberté d’expression », constate le professeur. Car les progrès de l’IA ont été financés par les pouvoirs économique et politique. Ainsi, les nouvelles technologies servent d’abord ces intérêts. Et elles sont souvent utilisées pour produire de fausses informations. « Aujourd’hui, les Américains et les Russes produisent des infox au niveau national et international. Les régimes politiques s’opposent sur le terrain du numérique et des réseaux sociaux. »
« Pour l’instant aucune entreprise n’a lancé un logiciel permettant de détecter les infox »
Les luttes d’influence et manipulation d’opinion ont gagné en efficacité en utilisant ces nouveaux outils. Un pas a encore été franchi avec les deepfake, ces vidéos truquées grâce à des technologies d’intelligence artificielle. Elles pourraient avoir de graves conséquences sur nos systèmes démocratiques. D’autant qu’il n’existe pas à l’heure actuelle de moyens pour lutter contre cette production de contenus falsifiés. « Pour l’instant, à ma connaissance, aucune entreprise n’a lancé un logiciel permettant de détecter les infox. Et les médias eux-mêmes n’ont pas les moyens financiers de développer ce type d’outils. » Idem du côté de la recherche universitaire : les moyens restent faibles. Les sciences humaines captent seulement 10% des financements publics. Lors du dernier congrès Orbicom, organisé à Strasbourg sur le thème « La liberté d’expression à l’heure du numérique », l’IA n’a été que très peu évoquée car il existe peu de recherche à ce sujet. « L’idéal serait de monter un projet européen destiné à décoder les infox en impliquant tous les médias du Vieux Continent. »
Créé en 1994, le réseau Orbicom regroupe les 36 chaires Unesco en communication. Chacune de ces chaires rassemble une élite d’experts en communication provenant des secteurs privés et publics. L’ensemble du réseau se rencontre une fois par an à l’occasion d’un congrès. Du 13 au 15 mai 2019, il s’est tenu à Strasbourg sur le thème « La liberté d’expression à l’heure du numérique » et a réuni 150 participants de 30 nationalités.
Yvan, étudiant en master d’astrophysique
« Je suis relativement méfiant. On peut en faire de belles comme de pires choses. Il faut mettre des limites. C’est comme l’exemple du nucléaire, il y a des dangers. Chaque État détient sa notion du bien et du mal. Le gouvernement peut très bien s’en servir pour nous contrôler via les réseaux sociaux. »