La présence accrue de l’intelligence artificielle dans la vie civile soulève une série de problèmes pour les systèmes juridiques européens. Une vingtaine d’experts du Conseil de l’Europe ont pour objectif de trouver une approche pertinente en termes de droit pénal.
Si la coopération judiciaire fonctionne actuellement très bien entre pays européens, elle pourrait se trouver bouleversée par l’IA. Aujourd’hui, très peu de pays ont déjà légiféré. « Nous devons nous demander s’il est nécessaire d’élaborer une convention européenne harmonisée sur la question liée à l’utilisation de l’IA et la responsabilité pénale », explique Juliette Lelieur, maître de conférence en droit pénal, directrice adjointe de la Fédération de recherche l’Europe en mutation et membre du Comité européen pour les problèmes criminels. Pour répondre à cette question, le groupe d’experts du Conseil de l’Europe a choisi d’analyser l’exemple du véhicule autonome, le plus parlant pour l’ensemble de la société.
« Imaginons un véhicule autonome acheté par un Polonais vivant en France. Celui-ci déménage ensuite en Pologne, y fait immatriculer sa voiture, et part en vacances en Italie où il a un accident mortel. » Qui sera jugé responsable ? « Pour engager des poursuites, la justice italienne devra demander des éléments de preuves à la Pologne. Or, le conducteur se déclarera non coupable ; ce n’est pas lui mais sa voiture, construite en France, qui conduisait. La Pologne n’accordera donc pas l’entraide judiciaire. »
Peut-on porter un jugement moral sur une machine ?
Établi pour juger des actions humaines, le droit pénal prend le plus souvent la forme d’une peine. Mais peut-on porter un jugement moral sur une machine ? « Nous avons décrit trois réactions possibles. Dans la première, on considère que le droit pénal n’a pas sa place puisque l’IA n’est pas humaine. Il n’y a pas de peine et seule la responsabilité civile entre en compte avec indemnisation de la victime. Dans la deuxième, on recherche la responsabilité pénale objective, qui pourrait par exemple être attribuée au constructeur de l’automobile ou au concepteur de l’algorithme. » Une responsabilité que remettra en cause l’apprentissage profond des machines. « Si on considère une flotte de voitures et que quelques-unes font la même expérience, celle-ci va bénéficier à l’ensemble de la flotte. Est-ce juste de poursuivre le concepteur de l’algorithme si la voiture a adapté sa décision suite à son propre apprentissage ? » Dans le troisième cas, l’IA pourrait être pénalement responsable, comme ce peut être déjà le cas pour une personne morale, telle une société ou une association. « Une idée originale mais qui paraît encore prématurée », prévient Juliette Lelieur.
Luc, étudiant en troisième année de doctorat en informatique
« L’IA intervient par exemple dans les voitures qui roulent toutes seules, la reconnaissance d’image. Je suis plutôt pour cette technologie, ce qui est informatisé reste plus efficace que les humains, surtout lorsqu’il y a beaucoup de données à analyser. Pour l’instant, je n’ai pas peur de l’intelligence artificielle car c’est bien contrôlé. »
Thibault, 2e année prépa scientifique
« L’IA est une technologie intéressante qui a des applications utiles dans beaucoup de domaines différents. On peut par exemple l’utiliser en médecine pour analyser les imageries. Mais si elle est mise entre de mauvaises mains, on ne sait pas ce que ça pourrait engendrer par la suite. Je suis également impressionné par une machine qui a réussi à battre le champion du monde au jeu de go. »