Retour au numéro
Isaac Asimov, auteur des "lois de la robotique" et ses créatures
Vue 11 fois
12 avril 2015

PERMIS DE TUER ?
PEUT-ON FAIRE CONFIANCE À UN ROBOT ?

Au cours de ses différentes affectations, l’auteur a appris à maîtriser la langue de bois tout en cultivant le soupçon d’impertinence nécessaire pour savoir prendre du recul par rapport à un contexte très évolutif et pas toujours entièrement maîtrisé, et asseoir ainsi son autorité, toujours au service de l’institution. il nous explique ici pourquoi, au-delà de la question fatidique du droit de tuer pour un robot, se pose avant tout la question de la confiance que l’on peut lui accorder : tant pour analyser et interpréter la situation, que pour appliquer les règles d’engagement qui lui auront été fixées.


En effet, au même titre que pour l’ensemble des armements, l’emploi des robots s’inscrit dans le cadre de l’article 36 du Protocole additionnel I aux Conventions de Genève du 12 août 1949, en date du 8 juin 1977, qui oblige à vérifier que lesdits systèmes d’armes ne sont pas contraires aux règles du droit international humanitaire. Tuer, oui, mais sans infliger des souffrances pouvant être considérées comme « excessivement nocives » ou « frappant sans discrimination ». Seront considérées comme effectuées sans discrimination « les attaques dont on peut attendre qu’elles causent incidemment des pertes en vies humaines dans la population civile, des blessures aux personnes civiles, des dommages aux biens de caractère civil, ou une combinaison de ces pertes et dommages, qui seraient excessifs par rapport à l’avantage militaire concret et direct attendu » (cf. articles 51 §5 b et 57 §2 a iii) du Protocole cité).

D’où la nécessité pour un robot de capacités d’appréciation casuistique de la situation

Sur le plan scientifique, c’est là que résident les principaux défis actuels – vieux de plusieurs décennies en fait ! Il n’est que de se replonger dans certaines histoires de robots d’Asimov pour prendre conscience de l’ambigüité des attendus … Ceci dit, aurions-nous (je m’adresse ici aux seuls confrères humains parmi nos lecteurs, au risque de me faire reprocher une ségrégation volontaire) fait différemment ou mieux en tant qu’humain dans certaines de ces histoires ? Mais là n’est pas la question, puisque le droit suppose que l’humain soit a priori capable de discrimination intelligente (au sens étymologique de « compréhension ») dans le processus de décision de ses actions.

L’intelligence artificielle (la fameuse IA – rien à voir avec nos camarades !) apporte de nombreuses réponses partielles, tant pour la modélisation des contextes ou du droit applicable (les logiques modales aléthiques, déontiques, épistémiques, doxastiques, etc. permettent d’appréhender toutes les subtilités de nécessité/possibilité, obligation/permission, connaissance/plausibilité, croyance/compatibilité avec les croyances d’une non-essence), que pour l’analyse de situation et le choix d’une action. Mais force est de constater qu’il n’existe pas de réponse globale aujourd’hui à l’ensemble de ces problématiques, qui satisfasse les critères minimaux de « confiance », permettant de « confier » à une machine (l’emploi polysémique est ici volontaire et souligne une ambigüité sémantique, en partie à la base de la problématique) ce que l’on confie finalement à quasiment n’importe quel C..., pardon !, humain … il n’est que de voir les informations relatées par la presse sur certaines exactions aux barrages de contrôle dans la partie orientale de l’Ukraine, ou ailleurs au Proche et Moyen-Orient.

Entre l’enfant soldat et le robot, qui est in fine le plus apte, ou le moins inapte, à évaluer la légalité d’un ordre de tuer et à prendre l’action la plus conforme au droit humanitaire international ?

L’emploi de robots avec armes létales dans des opérations pour cibler et attaquer des objectifs pose la question de la responsabilité en cas d’accident ou de dommage collatéral, question d’autant plus délicate quand les cibles sont sélectionnées et attaquées sans implication d’homme dans la boucle (opérateur, superviseur, ou décideur humain).

Les aspects d’autorité et de responsabilité sont fondamentalement liés aux questions organisationnelles sous un angle managérial et juridique. Rappelons que l’autorité est le pouvoir accordé à une entité pour pouvoir organiser des ressources identifiées dans un but donné, et pour contrôler l’opération et l’utilisation de ces ressources. Elle peut être déléguée à des entités (personnes, systèmes) rattachées, ou alors transférée complètement à une autre organisation. De cette notion d’autorité dérive la notion d’autonomie, qui implique le droit et l’autorité de prendre des décisions indépendantes. En regard de ces deux notions, on a la notion de responsabilité, qui est le fait d’être tenu comme redevable, auprès d’une entité, de l’exercice de l’autorité ; c’est une caractéristique que ne peuvent a priori posséder que des personnes ou des organisations définies, du fait de considérations légales.

 

« Qui porte en effet cette responsabilité ? »  

Qui porte en effet cette responsabilité – question ô combien clé en cas de bogue informatique, dont on connaît statistiquement l’inéluctable apparition – : l’autorité qui a donné l’ordre de ciblage, celle qui a ordonné la mission, l’autorité d’emploi du robot, le maître d’ouvrage en charge de son acquisition, le fabricant, l’architecte du produit, l’investisseur, l’auteur du concept d’emploi de systèmes d’armes létal autonome ?

Au-delà de la responsabilité se pose le problème de la conscience de tuer, qui est vue comme un garant éthique du « droit de tuer », dans la mesure où en découlent compassion, empathie, répugnance à voir un proche éliminé, jouant un rôle clé en particulier dans l’analyse de la légalité d’un ordre de tuer.

En conséquence, certaines ONG militent pour un moratoire sur les robots autonomes létaux. Ainsi, le 28 octobre 2014, le coordinateur de la campagne « Stop killer robots » a délivré une déclaration au Comité sur le désarmement et la sécurité internationale de l’Assemblée Générale des Nations Unies, pour continuer les réflexions entamées du 13 au 16 mai 2014 sur les systèmes d’armes autonomes létaux dans le cadre des groupes experts de la convention sur les armes conventionnelles. Les ONG impliquées dans cette démarche sont Article 36 (Royaume-Uni), Association for Aid and Relief (Japon), IKV Pax Christi (Pays-Bas), International Committee for Robots Arms Control, Mine Action Canada, Nobel Women’s Initiative, Pugwash Conferences on Science and World Affairs, Women’s International League for Peace and Freedom.

Au-delà de ces ONG, le Parlement Européen a adopté le 27 février 2014 une résolution sur l’utilisation des drones armés – 2014/2567 (RSP) – et se dit gravement préoccupé par l’utilisation de drones armés en dehors du cadre juridique international et demande une information sur les projets de recherche et de développement, ainsi que la mise en place d’un contrôle de la légalité des frappes de drones avec un droit de recours auprès de l’Union Européenne pour les victimes de frappes illégales.

On voit donc que la question du droit de tuer pour les robots autonomes se pose en termes d’éthique, de confiance, mais rejoint finalement le droit international au même titre que le droit de tuer pour des humains. La problématique relève d’une assimilation progressive entre l’humain et le robot autonome : finalement, est-ce vraiment surprenant quand on voit que des pays comme la Corée du Sud travaillent depuis plusieurs années sur l’idée d’une loi accordant des droits aux robots et des responsabilités à leurs utilisateurs et propriétaires. In fine, la différence entre humain et robot autonome tend à se gommer sur le plan juridique : la science sera-t-elle finalement en retard sur les évolutions sociétales ? 

 

Glossaire non conventionnel de la rédaction

tuer : les drones américains tuent, alors que les Français traitent les cibles, neutralisent, mettent hors de combat

mort : unité de compte: mot employé seulement pour dire «tant de morts», éviter les morts indues : ah bon, parce qu’il y a des morts dues?

violer : seulement au sens figuré : violer un accord, une convention, un cessez-le-feu. Sinon, on parle d’exactions

crime : les crimes contre l’humanité sont seulement commis par les vaincus

chirurgical : se dit d’un acte sans faute de frappe, c’est à dire sans victime innocente avérée

paix (dans l’expression maintien de la paix) : situation de tension extrême qu’il faut maintenir, sinon ce serait pire

collatéral : peut qualifier un effet ou une victime (c’est le point de vue du drone ; qu’en est il de la victime ?)

engager une cible : tout de même plus noble que tirer ou faire feu sur cette cible

traiter un objectif : générique, trop...

sécuriser : réussir à se maintenir dans un quartier de la ville, après les frappes des drones (on pourrait préciser: réussir à se maintenir dans un quartier de la ville sans se faire taper dessus) une fois le travail des robots terminé, « l’opération est entrée dans une phase de contrôle de zone pour stabiliser la ville : la présence de la force au cœur de la ville a permis un retour à une situation sécuritaire plus stable.»

Il est juste dommage que les drones ne puissent pas être félicités : « Les opérations menées aux prises avec les rebelles, ou encore face aux foules manipulées par quelques extrémistes des deux bords, ont toujours été menées avec brio. »

Nota : “The trouble with machines is people” (Edward R. Murrow). Formule à prendre dans le sens qu’on voudra …

 

 

 

    
Dominique Luzeaux
Dominique Luzeaux a reçu en 2006 le Prix Chanson pour ses travaux sur la robotique militaire.
 

Auteur

Articles liés par des tags

Commentaires

Aucun commentaire

Vous devez être connecté pour laisser un commentaire. Connectez-vous.