Quelles lois pour les robots ?
Après un projet européen de législation en matière de robotique, la question se pose désormais aux Etats-Unis : faut-il créer une Commission fédérale de la robotique ?
En juin dernier, s’est achevé un projet de recherche de 27 mois lancé en 2012 par l’Union Européenne. Intitulé Robolaw, il a donné lieu à de nombreuses publications, dont quatre livres. Son nom suffit à indiquer son objet : étudier si l’état actuel de la législation est adapté à l’émergence et à la prolifération attendue de robots et s’interroger sur les questions éthiques posées par ces nouveaux venus. L’un des livres publiés, Law and Technology-The Challenge of Regulating Technological Development, décrit bien la problématique du sujet.
Sans doute inspiré par cette initiative, Ryan Calo de l’University of Washington School of Law, lance aujourd’hui le débat aux Etats-Unis. Il pose la question dans un article publié par Brookings : « faut-il créer aux Etats-Unis une Commission fédérale de la robotique ? »
L’auteur insiste sur l’enjeu : « les autres pays investissent massivement dans le domaine de la robotique et, en particulier, dans la création d’infrastructures politiques et légales concernant les technologies émergentes ; ils risquent ainsi de dépasser les Etats-Unis en matière d’innovation pour la première fois depuis l’invention de la machine à vapeur. » Faute d’une législation ad hoc encadrant l’usage des engins robotisés, les Etats-Unis prennent selon lui du retard sur les pays qui ont anticipé le problème en se dotant d’une cadre législatif clair ; ils pourraient même se trouver contraints d’adopter des normes et des règles nées à l’étranger.
Ryan Calo distingue nettement le cadre légal lié aux ordinateurs et au logiciel de celui de la robotique en faisant valoir que, contrairement aux premiers, les robots (au sens large) ont la capacité d’infliger des blessures physiques aux êtres humains. Les robots médicaux, les futures voitures autonomes ou les drones sont notamment pris pour exemples.
Le problème n’est pas mince : qui est juridiquement responsable si une voiture autonome ou un autre appareil « robotisé » crée un accident ? Le constructeur, le chauffeur (il n’y en a pas !) ou celui qui a écrit le logiciel ? La question est déjà d’actualité dans les usines. Aujourd’hui, la loi impose que les robots industriels soient enfermés dans des cages afin de protéger les ouvriers. Or on souhaite désormais installer des robots « collaboratifs », qui travaillent aux côtés des individus. Que se passera-t-il si quelqu’un est blessé par un robot devenu « fou » ? Qui sera responsable ?
L’article de Calo met en lumière la difficulté de la question législative en rappelant l’erreur commise par le Nevada. Cet Etat avait légiféré en 2011 à propos des voitures sans chauffeur. La loi définissait un véhicule autonome en se référant à « tout remplacement de l’opérateur humain par de l’intelligence artificielle ». L’Etat a du faire machine arrière quand l’effet pervers de cet énoncé s’est manifesté : de nombreux véhicules actuels, dotés de systèmes anticollision ou d’ABS, tombaient en effet sous le coup de cette loi, ce qui n’avait pas été prévu… Le Nevada réfléchit aujourd’hui à une autre formulation qui ne s’appliquerait qu’aux véritables véhicules autonomes.
Pour Ryan Calo, c’est le manque d’expertise des législateurs qui a conduit le Nevada à proposer une loi inadaptée. Il fait ainsi valoir l’intérêt d’une Commission composée, outre de spécialistes du droit, d’ingénieurs en mécanique, électronique et informatique et de spécialistes de l’interaction homme-machine, de façon à prendre en compte tous les aspects de cette question complexe. Cela constituerait d’ailleurs une première. Les Etats-Unis verraient ainsi apparaître un objet nouveau : une agence fédérale multidisciplinaire.