Encyclopédie Wikimonde

Droit des robots

Aller à : navigation, rechercher

Comment vivre avec des machines qui ne sont ni des hommes, ni des animaux mais qui ont une capacité d'interaction avec l'être humain ?

Le robot n'appartient ni à la catégorie des personnes, ni à la catégorie des choses, encore moins à celle des animaux. Faute de pouvoir entrer dans une catégorie juridique, le robot n'a, actuellement, ni droits, ni obligations, ni protection dans aucun système juridique.

À terme, il y aura une catégorie juridique « robot », à laquelle correspondra un « droit des robots ». Certes, ce droit ne sera pas étranger aux règles classiques (notamment celles du droit de la responsabilité civile), mais il sera suffisamment spécifique pour pouvoir identifier un corps de règles particulières permettant d'encadrer les activités robotiques.

La constitution du référentiel légal est déjà en marche à travers ce que l'on appelle le « droit souple » tel que les chartes.

Un système de valeur précurseur

Les lois d'Asimov

Isaac Asimov, écrivain de science-fiction, est l'un des tout premier à avoir réfléchit aux implications futures de la robotique dès 1942 (le Cycle des robots), à travers un principe simple, le robot ne doit pas mettre en danger un humain. À partir de ce principe, il a élaboré les premières règles éthiques sous la forme des 3 lois de la robotique :

  • "Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu'un être humain soit exposé au danger.
  • Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi".

L'objectif de ces lois est simple et clair : préserver l'homme des atteintes que pourraient lui porter les robots mais aussi préserver les robots d'éventuelles maltraitances.

Les lois d'Asimov ne sont pas de véritables lois, au sens classique du terme. Il s'agit de principes généraux du droit visant à poser un système de valeur (un robot ne doit pas mettre en danger un humain) sans offrir de cadre juridique en termes de responsabilité.

Des lois universelles

En réalité, les lois d'Asimov sont par nature « universelles » et entrent dans le cadre des principes de droit posés par le Code civil et pénal pour protéger la personne humaine, à savoir :

  • la loi assure la primauté de la personne, interdit toute atteinte à la dignité de celle-ci et garantit le respect de l'être humain dès le commencement de sa vie (art. 16 C. civil) ;
  • l'interdiction de s'abstenir volontairement de porter assistance à une personne en péril (art. 223-6 C. pénal) ;
  • l'irresponsabilité pénale de la personne qui agit en état de légitime défense (art. 122-5 C. pénal).

Le cadre normatif de la robotique industrielle

Les directives produits et machines et le marquage CE

Le Parlement européen et le Conseil ont adopté la directive « Machines » dans sa 3e édition (Directive 2006/42/CE) pour assurer la libre circulation des machines dans le marché intérieur tout en garantissant un haut niveau de protection de la santé et de la sécurité.

La protection de la santé et la sécurité sont à la fois une obligation fondamentale et une prérogative des États membres. C'est ce qui a motivé la directive «Machines» visant à harmoniser les exigences de santé et de sécurité en rapport avec la conception et la construction de machines au niveau de l'UE.

Les considérants 2 et 3 de ce texte décrivent l'importance du secteur et la nécessité d'établir un cadre réglementaire harmonisé pour la conception et la construction de machines :

« (2) Le secteur des machines constitue une partie importante du secteur de la mécanique et est un des noyaux industriels de l'économie de la Communauté. Le coût social dû au nombre important d'accidents provoqués directement par l'utilisation des machines peut être réduit par l'intégration de la sécurité à la conception et à la construction mêmes des machines, ainsi que par une installation et un entretien corrects.

(3) Il incombe aux États membres d'assurer, sur leur territoire, la santé et la sécurité des personnes, notamment des travailleurs et des consommateurs et, le cas échéant, des animaux domestiques et des biens, notamment vis-à-vis des risques découlant de l'utilisation des machines. »

Le terme «machine» est définit à l'article 2 comme un : « ensemble équipé ou destiné à être équipé d'un système d'entraînement autre que la force humaine ou animale appliquée directement, composé de pièces ou d'organes liés entre eux dont au moins un est mobile et qui sont réunis de façon solidaire en vue d'une application définie ».

Concrètement, il s'agit de tout équipement et élément mobile entraînés par une source d'énergie « autre que la force humaine ou animale appliquée directement ».

Les directives produits et machines et le marquage CE, constituent donc le cadre normatif de base applicable aux robots même si ce cadre a été essentiellement élaboré pour la robotique industrielle. Sans doute nécessiterait-il quelques adaptations pour couvrir les robots de service ou encore les robots personnels.

Les normes ISO

Les robots industriels font l'objet d'une norme internationale ISO 10218 « Robots et dispositifs robotiques - Exigences de sécurité pour les robots industriels » :

  • la partie 1 intitulée « Robots » (EN ISO 10218-1 : 2011)
  • la partie 2 intitulée « Systèmes robots et intégration » (EN ISO 10218-2 : 2011).

Bien qu'elles prennent en compte des phénomènes dangereux particuliers présentés par les robots industriels et les systèmes de robots industriels, ces normes ne peuvent encadrer le déploiement de la plupart des robots de service tels que conçus actuellement.

Tout simplement parce que les règles de sécurité applicables dans le domaine de la robotique industrielle ne sont pas adaptables à la robotique de service qui impose une interaction forte avec l'humain, c'est-à-dire dans un environnement moins contrôlé que les sites industriels.

Les chartes éthiques

La Corée du sud

La Corée du Sud pionnière en matière de robotique industrielle, a publié en 2007 un projet de charte éthique des robots. Le gouvernement sud-coréen avait annoncé son adoption pour la fin de l'année 2007, mais n'a pas fourni de nouvelles informations le concernant. Il est ainsi le premier texte à définir les lignes de conduites éthiques à tenir.

Le préambule de ce projet énonce qu'il s'agit « d'éviter les problèmes de société qui pourraient découler de mesures sociales et juridiques inadéquates prises pour encadrer l'existence de robots dans la société ».

Il s'élabore des lignes de conduite éthiques sur les rôles et fonctions respectifs des fabricants, utilisateurs, propriétaires et robots eux-mêmes. Il est construit en trois parties : les normes de fabrication, les droits et devoirs des utilisateurs et propriétaires, et les droits et devoirs des robots.

Les normes de fabrication

Les normes de fabrication sont encadrées par neuf principes qui visent à assurer le contrôle des robots par les humains. Ainsi les fabricants de robots doivent :

  • veiller à ce que l'autonomie des robots qu'ils conçoivent soit limitée, afin qu'il soit toujours possible pour un être humain de prendre le contrôle d'un robot dans le cas où cela deviendrait nécessaire.
  • respecter des normes strictes de contrôle de la qualité, en veillant à ce que toutes les mesures raisonnables soient prises afin de réduire les risques de décès ou de blessure pour l'utilisateur et garantir la sécurité de la population.
  • prendre des mesures pour réduire le risque de dommage psychologique pouvant être causé aux utilisateurs par des comportements antisociaux ou sociopathes, de dépression ou d'anxiété, de stress, et en particulier d'addictions (telles que la dépendance au jeu).
  • s'assurer que leur produit est clairement identifiable, et que cette identification est protégée contre toute altération.
  • être conçus de manière à protéger les données à caractère personnel par des moyens de cryptage et de stockage sécurisé.

être conçus de manière à permettre la traçabilité de leurs actions (aussi bien dans le monde virtuel que dans le monde réel) à tout moment. Enfin, la conception des robots doit s'inscrire dans une démarche écologiquement responsable et pérenne.

Les droits et devoirs des utilisateurs–propriétaires

Les propriétaires et les utilisateurs doivent pouvoir utiliser leur robot en toute sécurité et sont en droit d'attendre d'un robot qu'il effectue toutes les tâches pour lesquelles il a été expressément conçu.

Le projet de la charte sud-coréenne traite également de la protection des données acquises par les robots. Ainsi, les utilisateurs ont le droit à la sécurité de leurs données à caractère personnel et de leurs autres informations sensibles.

Si ce texte reconnaît le droit de l'utilisateur à utiliser un robot comme bon lui semble, pour autant il pose des limites liées aux usages illégaux des robots. L'utilisateur s'interdit notamment d'utiliser un robot pour commettre un acte illégal. Le propriétaire doit prendre des « précautions raisonnables » pour que son robot ne constitue pas une menace pour la sécurité et l'intégrité physique ou la propriété des personnes.

Enfin, la charte rappelle les actes qui constituent une infraction à la loi coréenne :

  • Endommager ou détruire délibérément un robot.
  • Permettre, par négligence grave, à un robot de subir un dommage.
  • Constitue une infraction mineure, mais sérieuse, le fait de traiter un robot d'une manière qui peut être interprétée comme délibérément et excessivement abusive.

Les droits et devoirs des robots

Le projet de charte pose également les droits et devoirs des robots.

Les premiers consistent en un rappel à la loi coréenne. Ainsi, les robots jouissent des droits fondamentaux suivants :

  • Le droit d'exister sans crainte d'être blessé ou tué.
  • Le droit de vivre une existence exempte de violence systématique.

Les seconds sont au nombre de trois :

  • Un robot ne peut porter atteinte à un être humain, ni en restant passif, ni en permettant qu'il soit soit exposé au danger.
  • Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la règle ci-dessus.
  • Un robot ne doit pas tromper un être humain.

Le Danemark

Le Danemark travaille sur la notion de "cyborg" et de robots sociaux.

Le terme cyborg est la contraction de “cybernetic” (cybernétique) et “organism” (organisme) et date des années 1950. Le Danemark a élaboré des recommandations concernant la technologie cyborg et les robots sociaux.

Recommandations concernant la technologie cyborg (2010)[1]

La technologie Cyborg : l'extension de la biologie humaine

Aspects éthiques de la technologie cyborg

  1. Une ligne peut être établie entre la réparation et l'amélioration ?
  2. Conséquences de la technologie cyborg pour notre vision de la nature humaine, l'identité humaine et le statut de l'espèce humaine
  3. Technologie Cyborg et l'égalité entre les êtres humains

Le Conseil danois des recommandations d'éthique et la technologie cyborg

  1. Introduction
  2. Un cadre réglementaire relativement léger pour la technologie cyborg
  3. Un cadre relativement strictement réglementée pour la technologie cyborg

Recommandations concernant les robots sociaux (2010)[2]

Robots sociaux et éthique

  1. Robots sociaux et la technologie de la relation
  2. La relation d'aide
  3. L'éthique de la prétention
  4. Quand les robots d'apprentissage peut prendre leurs propres décisions

Le Conseil danois des recommandations éthique et les robots sociaux

  1. Robots sociaux et de la technologie de bien-être comme des éléments de soins et de traitement
  2. Responsabilité du produit et robots sociaux
  3. Lorsque les robots sociaux semblant d'avoir une vie intérieure
  4. Robots sociaux, la surveillance et la vie privée

La Grande-Bretagne

EPRSC et AHRC (2011)[3]

Engineering and Physical Sciences Research Council (EPRSC) et Arts and Humanities Research Council ont publié conjointement 5 principes d'éthique pour les concepteurs, constructeurs et utilisateurs de robots.

Les États-Unis

Plusieurs codes d'éthique ont été développés. Ils ne concernent pas les robots eux-mêmes, mais s'adressent aux ingénieurs qui participent à leur conception. Ces règles éthiques doivent être combinées avec les codes de déontologie des différents professionnels qui sont amenés à les utiliser au quotidien.

Code de déontologie des ingénieurs de la Société nationale des ingénieurs (2003)[4]

Il s'agit des règles d'honnêteté, d'impartialité, d'équité, de respect des êtres vivant, de leur bien-être et de leur santé que les ingénieurs amenés à participer à la conception de robots, s'engagent à suivre.

Préambule

Règles fondamentales

  1. Respecter la sécurité, la santé et le bien-être de la population
  2. Ne fournir des services que dans son propre domaines de compétence
  3. Faire des déclarations publiques objectives et véridiques
  4. Agir en représentant ou mandataire honnête pour chaque employeur ou client
  5. Eviter les actes trompeurs
  6. Se conduire honorablement, avec modération, éthique et de manière légale de façon à renforcer la réputation de l'honneur et de l'utilité de la profession

Mise en pratique de ces règles

Obligations professionnelles

Code de déontologie des ingénieurs en robotique de l'Institut Polytechnic Worcester (2010)[5]

Cette étude a permis d'élaborer un projet de code de déontologie des ingénieurs de robotique professionnels en faisant des recherches dans les domaines de la robotique, de l'éthique et de "roboethics" afin d'en développer la compréhension.

On peut notamment citer les principes :

  1. Accepter la responsabilité des actes et des utilisations des robots, à la création desquels j'ai participé
  2. Respecter le bien-être et les droits des êtres vivants.
  3. Ne pas participer à la désinformation et faire de son mieux pour y remédier.
  4. Respecter les lois locales, nationales et internationales applicables.
  5. Reconnaître et divulguer les conflits d'intérêts
  6. Accepter et offrir une critique constructive.
  7. Aide et assister ses collègues dans leur développement professionnel et dans l'évolution de ce code.

Le Japon

La démarche éthique du Japon se résume à reprendre en 1988, les 10 principes du droit des robots qui ont été formulés par Osamu Tezuka dans ses mangas, en particulier Astro Boy, une série télévisée d'animation de science-fiction japonaise. Ce petit robot a influencé de nombreux futurs concepteurs de robots.

Les dix principes japonais en droit des robots[6]

  1. Les robots doivent être au service de l'humanité.
  2. Les robots ne doivent jamais tuer ou blesser les êtres humains.
  3. Les fabricants de robots sont responsables de leurs créations.
  4. Les robots qui participent à la fabrication de la monnaie, de produits réglementés ou de marchandises dangereuses doivent être titulaires d'un permis.
  5. Les robots ne sont pas autorisés à quitter le pays sans autorisation.
  6. L'identité des robots ne peut être modifiée, dissimulée ou susceptible d'être mal interprétée.
  7. Les robots doivent pouvoir être identifiables à tout moment.
  8. Les robots destinés aux adultes ne sont pas autorisés à travailler avec des enfants.
  9. Les robots ne doivent pas contribuer à des activités criminelles, ni prêter assistance à des contrevenants dans le but d'échapper à la justice.
  10. Les robots s'interdisent de porter atteinte aux habitations ou aux biens des êtres humains, en ce y compris d'autres robots.

L'Union européenne

Un groupe qui rassemble des industriels et des chercheurs académiques européens travaille depuis 1999, à mettre un réseau et un centre de ressources autour de la robotique : la communauté EURON.

EURON est un raccourci pour " UEropéenne RObotics recherche Network "[7].

Convention sur la "roboéthique" 2025 de l'Union européenne

Aux termes de la ratification de la présente Convention, trois résolutions ont été posées en préambule :

  1. Les États membres établissent des comités de normalisation ayant pour mission de fixer les règles techniques et juridiques applicables aux robots commerciaux. Si les détails de ces règles sont soumis au contexte et aux besoins de la législation de chaque État membre, la présente Convention dispose que les éléments suivants constituent le socle minimum d'une norme de qualité internationale.
  2. La roboéthique est instaurée comme un domaine de recherche du Groupe européen d'éthique.
  3. L'UE met en place un Pôle d'intérêt commun (RSI) spécialisé dans la mise en œuvre et la réglementation de la roboéthique.

La Convention comprend les lignes de conduites éthiques suivantes :

  • les normes européennes (sûreté, sécurité, traçabilité, identification, confidentialité)
  • les systèmes de production avancés
  • les robots domestiques
  • la roboéthique dans un environnement extérieur
  • la roboéthique dans le domaine de la santé
  • la roboéthique dans le domaine militaire
  • la roboéthique dans le domaine du divertissement éducatif

Charte des droits fondamentaux de l'Union européenne (2000)

On peut également citer la Charte des droits fondamentaux de l'Union européenne adoptée le 7 décembre 2000 par l'Union européenne. Le droits fondamentaux y sont regroupés au sein de six chapitres contenant les principes éthiques généraux communs en Europe :

  • Dignité (notamment l'article 3 : Droit à l'intégrité de la personne)
  • Libertés (notamment l'article 8 : Protection des données à caractère personnel)
  • Égalité
  • Solidarité
  • Citoyenneté
  • Justice

Notes et références

Annexes

Articles connexes

En français

En anglais

  • Ethics of artificial intelligence
  • History of robots
  • Laws of robotics (http://en.wikipedia.org/wiki/Laws_of_robotics)
  • Machine ethics (http://en.wikipedia.org/wiki/Machine_ethics)
  • Robot (http://en.wikipedia.org/wiki/Robot)
  • Robotics (http://en.wikipedia.org/wiki/Robotics)
  • Roboethics (http://en.wikipedia.org/wiki/Roboethics)
  • Three Laws of Robotics (http://en.wikipedia.org/wiki/Three_Laws_of_Robotics)
  • Tilden's Laws of Robotics (http://en.wikipedia.org/wiki/Tilden%27s_Laws_of_Robotics)

Article publié sur Wikimonde Plus.

Erreur Lua dans Module:Suivi_des_biographies à la ligne 189 : attempt to index field 'wikibase' (a nil value).