Lorsque nous parlons des lois de la robotique, nous pensions immédiatement à Isaac Asimov et à la science-fiction. Aujourd’hui, les robots se retrouvent dans les usines, les magasins, chez soi, ou encore sur les champs de bataille. Leur évolution et leurs nouvelles possibilités inquiètent. Ne serait-il pas temps que les robots respectent des « lois de la robotique » ?

Le robot est mon esclave

Le terme « robot » a été créé par Karel Čapek pour sa pièce de théatre R.U.R (Rossum’s Universal Robots) de 1920. Il tire son origine du tchèque « Robota » : travail forcé. Cette idée va perdurer de nombreuses décennies, le robot est une machine pour travailler et réaliser des tâches en particulier dans les usines. 

En science-fiction, l’image va demeurer longtemps celle de Frankenstein : dans la vision de l’homme, le robot est là pour servir et obéir tandis que le robot, lui, a d’autres attentes, il désire sa liberté et se révolte. L’auteur de science-fiction Isaac Asimov présente une autre approche : le robot doit rester au service de l’homme et pour cela, il crée les 3 lois de la robotique en 1942 dans la nouvelle « Cercle vicieux » : 

  1. un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
  2. un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Portrait de l'auteur Isaac Asimov
Portrait de l’auteur Isaac Asimov

Ces lois sont implémentées dans les robots de ses œuvres lui permettant de les tester et de montrer leurs qualités et défauts. Plus tard, la loi 0 et la loi 4 seront ajoutées. Mais l’essentiel se trouve bien dans les 3 premières lois. 

De la science-fiction à la réalité, il n y a qu’un pas. Beaucoup ont imaginé que les robots respecteraient ces lois et nous protégeraient…. L’histoire nous a montré que cela n’était pas possible. Tout d’abord, les plus grands utilisateurs hors robots industriels sont les militaires … et ne peuvent donc pas faire appliquer la première loi à leur robot.

Ensuite d’un point de vue technologique, un robot ne peut appréhender les différents dangers. Cela demanderait qu’il anticipe la chute d’un objet, la solidité d’une chaise, la trajectoire d’une balle ou d’une voiture, ou encore le comportement inapproprié d’un enfant.  

Evidemment, comme toute machine, les robots sont réalisés pour respecter la vie des humains (hors militaire). Cela se situe dans la conception et non dans un raisonnement du robot. Malgré cela, les accidents arrivent comme cet homme tué dans une usine allemande par un robot industriel ou cet enfant de 16 mois qui se fait renverser et rouler dessus (sans gravité) par un robot de surveillance Knightscope K5 de 136 kg dans un centre commercial. Ces accidents demeurent exceptionnels. Les entreprises sont particulièrement exigeantes sur la sécurité des robots. Ainsi, le Knightscope K5 a parcouru 40 000 km et a fonctionné 35 00 heures sans problème de ce type.

 

Le robots Knightscope K5 en patrouille
Le robots Knightscope K5 en patrouille

Le robot est une vie artificielle

Un nouveau courant apparaît dans les années 80 : la vie artificielle. En 1987, Christopher Langton  définit cette nouvelle vision : « La vie artificielle est donc l’étude de systèmes vivants naturels pour en trouver des principes afin de recréer sur des supports artificiels des phénomènes biologiques à partir de rien.« . La vie artificielle regroupe de nombreux domaines dont l’exobiologie,  la vie computationnelle, et bien sûr la robotique. Le robot change de statut. Anciennement esclave, il a dorénavant le droit à l’autonomie et « sa liberté ». Dans ce courant, le robot n’est plus au service de l’homme.

Dans le prolongement de cette vision, le roboticien Mark Tilden propose ses lois de la robotique. L’humain était au cœur des lois d’Isaac Asimov,  cette fois-ci, Mark Tilden place le robot au cœur de ses lois. 

  1. Un robot doit assurer sa survie à tout prix
  2. Un robot doit obtenir et maintenir un accès à sa propre source d’énergie
  3. Un robot doit continuellement chercher une meilleure source d’énergie

A l’époque, Mark Tilden réalise des robots purement réactifs. leur seul but consiste à « survivre » d’où ces lois. Même si elles n’ont pas eu le retentissement des 3 lois d’Asimov, elles montrent une évolution de la robotique et du regard que nous portons sur les robots. Quelques années plus tard, des robots comme les Aîbo ou les robots-aspirateurs auront des comportements dans ce sens. Ainsi l’aïbo était capable d’éviter les flammes ou le vide, de retrouver sa station de recharge pour survivre.

un B.E.A.M
des B.E.A.M, réalisation de Mark Tilden selon ses 3 lois

Le robot est mon partenaire, mon complice.

Aujourd’hui, le robot devient omniprésent et nous le rencontrons dans de nombreuses situations différentes en allant faire ses courses, dans les entrepôts d’Amazon, dans une zone sinistrée utilisé par les secours ou encore à la maison.

Dorénavant, les (certains) robots détiennent de vraies capacités d’apprentissage et accèdent à un grand nombre d’informations. Outre la sécurité des personnes, des problèmes éthiques, de vie privée ou autres apparaissent. Pour nous protéger, Andra Keay vient de proposer 5 lois : 

  1. Les robots ne doivent pas être utilisés comme des armes.
  2. Les robots doivent se conformer aux lois, notamment celles sur la protection de la vie privée.
  3. Les robots sont des produits ; en tant que tels ils doivent être sûrs, fiables et donner une image exacte de leurs capacités.
  4. Les robots sont des objets manufacturés ; l’illusion créée ne doit pas être utilisée pour tromper les utilisateurs les plus vulnérables.
  5. Il doit être possible de connaître le responsable de chaque robot.

Sa premier loi est utopique, mais elle désirait néanmoins la souligner. La protection des personnes dans le quotidien n’apparaît finalement qu’avec les mots « sûrs, fiables ». La sécurité des personnes comme pour n’importe quelle machine est devenue une norme. Par contre, les points à souligner sont effectivement la vie privée et l’interdiction de manipulation ou tromperie. 

De son côté, Laurence Devilliers, chercheuse au CNRS se focalise plus sur les robots d assistance et propose 5 commandements

Premier commandement : tu ne divulgueras pas mes données à n’importe qui.
Deuxième commandement : tu pourras oublier [quelque chose] si je te le demande.
Troisième commandement : tu apprendras et suivras les règles de la société.
Quatrième commandement : tu seras loyal et capable d’expliquer tes décisions.
Cinquième commandement :  tu seras bienveillant et utile. Et pourquoi pas, doué d’un peu d’humour !

Là aussi, vie privée (commandement 1 et 2) et tromperie (3 et 4) sont au centre. La notion de vie privée ne se réduit pas à la robotique. Seulement un robot « vivant » au quotidien avec vous, avec caméras et micros, avec la capacité de comprendre vos émotions, vos ressentis et tout ce que vous exprimez, aura la possibilité de vous connaître mieux que vous. Ce robot pourrait alors vous manipuler pour vous faire acheter tel ou tel produit. 

Les technologies auxquelles Laurence Devilliers et Andra Keavy se rapportent sont celles d’aujourd’hui ou qui vont apparaître dans les 5 prochaines années. D’ailleurs, elles ne sont pas les seules à soulever le problème. Ainsi la célèbre fondation IIIE (Institut of Electrical and Elecronics Engineers) travaille sur une charte éthique. En France, la CERNA a publié « Ethique de la recherche en robotique » (avec la participation de Laurence Devilliers).

Tout ses travaux soulève des questions importantes, maintenant les constructeurs et les développeurs informatiques seront-ils réceptifs ou bien comme  dans les réseaux sociaux, la vie privée sera rognée petit à petit ? 

 

 

Fondateur de VieArtificielle.com et Robopolis.com, ingénieur UTC : Je m’intéresse aux robots autonomes par le prisme des sciences cognitives (les différentes « intelligences » présentes dans le robot), l’apprentissage, les comportements émergents) .