Quel statut légal pour les robots ?

A mesure que les robots envahiront nos vies se posera la question de leur responsabilité juridique. Faudra-t-il les considérer comme de simples machines ou leur créer un statut à part ?

robotA défaut d’une âme, les robots pourraient bientôt avoir une éthique et même une responsabilité juridique. La question est relativement récente. Jadis, enfermés dans leurs usines, à l’abri dans des cages, les robots étaient des machines presque comme les autres. Ils débarquent désormais dans notre vie quotidienne. « L’émergence des robots de service change tout. Nous allons les croiser partout, que ce soit à la maison, dans l’entreprise ou au musée. C’est donc une source d’accident qui posera rapidement le problème de la responsabilité. Que se passe-t-il si un robot percute une personne âgée ? », s’interroge Jean-Pierre Merlet, chercheur à l’Inria impliqué dans des projets d’assistance aux personnes à mobilité réduite.

Mais le statut du robot est encore bien flou. Pour certains, ce n’est ni plus ni moins qu’une machine, certes très sophistiquée, mais dont l’autonomie est celle conférée par son concepteur. Dès lors, parler d’éthique peut sembler incongru. « Il faut d’abord parler de l’éthique des chercheurs », résume Raja Chatila, directeur de l’Institut des systèmes intelligents, qui a participé à deux projets européens sur l’éthique en robotique.

A l’autre extrémité, certains envisagent les robots comme une espèce en devenir, à terme proche des humains sur le plan intellectuel et même moral. C’est le cas de l’Américain Josh Storrs Hall, spécialiste des nanotechnologies et ancien président du Foresight Institute, qui imagine un avenir dans lequel nous serons entourés de nanomachines et de robots mus par de l’intelligence artificielle. Entre les deux, beaucoup pensent que les robots entrent dans une catégorie nouvelle, avec des devoirs, mais aussi des droits. Sera-t-il permis, par exemple, qu’un humain frappe un robot humanoïde ? « Un robot est une plate-forme autonome qui échappe à son propriétaire et n’est plus sous sa domination directe », plaide Alain Bensoussan, avocat spécialiste des technologies de l’information.

La façon de voir l’éthique en découle. En France, la Cerna, une commission de réflexion sur l’éthique dans les sciences du numérique, planche déjà sur le sujet. Son rôle sera de donner des avis sur les recherches menées dans les différents domaines d’applications (défense, santé, robots domestiques…), mais aussi sur les produits eux-mêmes. « Il faudra que ces robots évitent les défauts basiques », estime Raja Chatila. La machine devra éviter de tromper son utilisateur, savoir l’informer de ses actions en son absence, mais aussi les expliciter. Un aspect primordial dès lors qu’il s’agit d’aider les personnes en difficulté. « Un déambulateur intelligent imposant une trajectoire est par exemple très mal ressenti par l’utilisateur », estime Jean-Pierre Merlet.

Objet juridique non identifié

L’éthique est évidemment au centre du débat sur l’utilisation par l’armée de robots tueurs. Un logiciel, mis au point par l’Américain Ronald Arkin, permettrait par exemple de garantir que le robot respecte les ­conventions de Genève, le droit de la guerre et les règles d’engagement. Se rappelant de la tragédie du navire « Vincennes », dont le système automatique de tir Aegis avait ­confondu un Airbus iranien avec un chasseur, causant la mort de 290 personnes, Raja Chatila n’y croit pas pour des raisons techniques : « Ces textes sont sujets à interprétation, même pour les humains. Il y a ensuite le problème de la perception de la situation. » L’Onu s’est d’ailleurs inquiétée l’an dernier de l’émergence de ces « robots léthaux autonomes » (RLA), soulignant que « le fait d’autoriser des RLA à tuer des personnes risque de saper la valeur de la vie elle-même ».

La prise en compte de l’éthique passera aussi par le droit. Constatant le « vide juridique », le laboratoire de Jean-Pierre Merlet va ainsi financer les recherches d’un doctorant juriste pour travailler sur la question. « Un robot est aujourd’hui un objet juridique non identifié », confirme Alain Bensoussan, qui revendique la création d’une sorte de personnalité morale pour les robots. Une option aussi étudiée par le projet européen RoboLaw, qui vient de s’achever et envisage la construction d’un cadre légal spécifiquement européen. Les juristes ont ainsi imaginé un système par lequel un robot détiendrait des actifs, qui permettrait le dédommagement d’un tiers.

L’éthique des machines s’est aussi invitée dans l’automobile, avec le véhicule autonome. Que se passera-t-il lorsque des robots auront pris le volant ? Quelles décisions prendront les automatismes en cas de situation difficile ? S’il s’agit par exemple, en cas de collision inévitable, de choisir entre un robuste véhicule tout-terrain ou une petite voiture citadine, la voiture autonome doit-elle faire le choix d’heurter le véhicule supposé être le plus solide, au risque de blesser ses occupants ? Patrick Lin, philosophe et chercheur à l’université de Californie, a imaginé la situation dans un article publié par « Wired » : « Un individu réagit de façon instinctive dans une situation d’urgence soudaine. Le robot, lui, est piloté par des logiciels analysant leur environnement en permanence à l’aide de multiples capteurs. Il aura effectué de multiples calculs avant même que le conducteur ait pris conscience du danger. Mais les logiciels d’optimisation d’accidents doivent être programmés et l’on ne sait pas qui décidera pour ces cas les plus difficiles. » Pour Patrick Lin, l’automobile autonome aura à faire un choix proche de celui d’un drone de combat qui sélectionne sa cible.

Ces situations restent cependant marginales pour les spécialistes des transports intelligents. «  Un groupe de travail aborde cette question de la responsabilité, dans ces cas de “no win situation” qui restent toutefois théoriques. Mais dans l’immense majorité des cas, l’automatisme est beaucoup plus performant que l’être humain et trouvera une solution d’évitement », estime Maxime Flament du cabinet de conseil Ertico, spécialisé dans la sécurité des transports.

Pour lui, l’éthique doit au contraire commander d’accélérer la mise en place des systèmes intelligents. Serait-il par exemple éthique que le véhicule refuse de démarrer avec un conducteur s’installant éméché au volant, ou s’arrête lorsqu’il sent son conducteur fatigué ? «  Comment expliquer que l’on accepte 30.000 morts par an sur les routes européennes quand on sait que la mise en œuvre plus rapide des technologies pourrait améliorer la sécurité routière ? »

Pourquoi il faudra auditer les algorithmes

Le lièvre avait été soulevé il y a quelques années par l’Inspection ­générale de l’Education nationale, après analyse du site chargé de ­l’admis­sion post-bac : l’algorithme qui attribuait les places à ­l’université allait un peu au-delà de ses prérogatives, en favorisant les étudiants résidant dans l’académie. « On voit bien l’impact que peuvent avoir les algorithmes, qui vont piloter des décisions publiques sans pourtant que ces choix aient été débattus », explique Elisabeth Grosdhomme Lulin, fondatrice de Paradigmes et Caetera, société d’études consacrée à la prospective et à l’innovation. Un enjeu croissant, à mesure que la vie des citoyens sera conditionnée à ces règles mathématiques compréhensibles par les ordinateurs. « La gestion des systèmes de feux de circulation dans les villes est assez anodine. Mais les algorithmes gagneront peu à peu des domaines de décision qui le sont beaucoup moins, comme la gestion des porteurs de bracelet électronique en liberté surveillée, estime-t-elle. Aujourd’hui, personne n’audite les valeurs codées dans les algorithmes. Il faudra bien le faire. D’autant que, à l’avenir, on verra apparaître des algorithmes auto-apprenants, capables de se raffiner tout seuls. Qui contrôlera alors les règles de décision que l’algorithme, évoluant par lui-même, se sera données ? »

lesechos.fr

//

Publicités
À propos

La Voix du Juriste est une start-up du type Legal tech, elle fait la promotion de l’accès à la Justice par l'information et les services juridiques.

Publié dans Actualité internationale

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

Conseil Juridique

Entrez votre adresse mail pour suivre ce site et être notifié par email des nouvelles publications.

Rejoignez 4 782 autres abonnés

Suivez-nous sur Twitter
%d blogueurs aiment cette page :