Retour au numéro
Le fantasme d'un Terminator
Vue 13 fois
13 avril 2015

« ROBOTS-TUEURS » : QUEL ENCADREMENT JURIDIQUE ?
L’UTILISATION DE SYSTÈMES D’ARMES LÉTAUX AUTONOMES (SALA) POSE DE NOMBREUX PROBLÈMES D’ORDRE ÉTHIQUE ET JURIDIQUE

Publié par Jean-baptiste Jeangène Vilmer et Flavien DUPUIS (1985) | N° 105 - Intelligence Artificielle et Robots

L’organisation non-gouvernementale (ONG) Human Rights watch a lancé printemps 2013 une campagne de mobilisation anti-« robots tueurs » destinée à prohiber toute recherche en matière de systèmes d’armes létaux autonomes. JeanBaptiste Jeangène Vilmer nous parle des enjeux juridiques et éthiques que soulève actuellement la perspective d’emploi des SALA. il s’exprime ici en son nom propre.


La CAIA : Qu’est-ce qu’un SALA au sens juridique du terme ?

Jean-Baptiste Jeangène Vilmer : Il y a une définition plus ou moins consensuelle, qui fait du SALA un système d’arme qui, une fois activé, permet de sélectionner et de traiter des cibles sans intervention d’un opérateur humain, mais elle n’est pas « juridique ». Les juristes tentent toujours de cerner ce qu’est exactement un SALA, et s’appuient donc sur les experts techniques et opérationnels du domaine : militaires et ingénieurs essentiellement. Leurs éclairages sont ensuite débattus dans des enceintes de discussion comme la Convention sur Certaines Armes Conventionnelles (CCAC, ou CCW en anglais) qui se réunit annuellement à Genève, et où se retrouvent, en plus des experts cités ci-dessus, des représentants d’ONG ainsi que des philosophes ayant pris position sur la question comme Peter Asaro par exemple. Les deux points d’achoppement majeurs qui empêchent l’émergence d’une position commune à l’heure actuelle sont les notions d’autonomie d’une part, et de létalité d’autre part. La notion d’autonomie pose problème car on se rend compte que celle-ci est autrement plus complexe que le triptyque classique human in/on/out of the loop(*) utilisé aujourd’hui pour caractériser le degré d’autonomie d’un système. On pourrait même presque dire qu’il existe autant de définitions et d’échelles d’autonomie que de spécialistes du domaine. Quant à la létalité, celle-ci fait débat car le caractère létal d’une arme dépend du contexte dans lequel elle est employée : un stylo peut être létal ! D’où le souhait de certains d’ôter ce terme et de ne parler que de système d’armes autonomes. A cette difficulté sémantique s’ajoute l’absence de base empirique consistante permettant d’illustrer les effets concrets des SALA. Contrairement aux mines antipersonnel, dont les ravages étaient connus bien avant la Convention d’Ottawa de 1997 (qui prohibe leur utilisation et leur fabrication), il est impossible de trouver des exemples de « bavures » concrètes commises par des SALA et susceptibles de frapper les esprits. D’où la porte ouverte aux fantasmes de type « Terminator », qui rend les conditions d’un débat rationnel et apaisé difficiles à réunir. Et les ONG jouent là-dessus.

La CAIA : Comment les SALA, tels qu’ils sont envisagés aujourd’hui, se positionnent-ils par rapport au droit international et humanitaire (DIH) ?

JBJV : Le DIH prohibe a priori deux types d’armes : les armes causant des maux superflus (comme les balles explosives, ou dum dum bullets, qui furent interdites à la fin du XIXème siècle), et les armes non-discriminantes : celles dont l’usage ne permet pas la distinction entre combattants et non-combattants, comme les armes de destruction massive. Les ONG s’appuient sur la difficulté pour les SALA de distinguer entre un combattant et un non-combattant pour défendre leur interdiction. Il est vrai que cette distinction est déjà difficile à effectuer par un soldat humain. Mais selon moi le débat sur la discrimination est un faux débat car le respect ou non du DIH dépend avant tout du contexte d’emploi de l’arme. Si l’on n’autorise les SALA que dans des contextes où ils n’auront pas à distinguer un civil d’un combattant, soit parce que toute intrusion est suspecte (comme dans la zone démilitarisée à la frontière entre les deux Corées par exemple), soit parce qu’ils sont utilisés dans des milieux où la probabilité de rencontrer des civils est faible, voire nulle (milieu sous-marin ou spatial par exemple), l’incapacité supposée de distinguer entre un civil et un combattant n’est pas problématique.

La CAIA : Quels sont les arguments des anti-SALA ?

JBJV : La plupart des arguments opposés au développement des SALA appartiennent à ce que l’on appelle, en éthique normative, le déontologisme. Cette mouvance, que l’on peut rapprocher de l’éthique de conviction de Max Weber ou de la morale kantienne, considère qu’une action est morale si et seulement si celle-ci obéit à une règle universalisable. Les opposants aux SALA invoquent ainsi comme principe intangible le « droit à ne pas être tué par une machine », et ce même si leur usage permet de limiter les risques de violation du DIH, s’il était prouvé par exemple qu’une machine, qui n’est pas soumise aux émotions humaines et est dénuée d’instinct de conservation, serait incapable de tuer par peur, esprit de vengeance ou stress. Le rapporteur de l’ONU sur les exécutions extrajudiciaires, sommaires ou arbitraires Christopher Heyns, considère ainsi que « quand bien même un SALA pourrait sauver des vies, laisser une machine décider de tuer un homme est intrinsèquement mauvais ». Ce type d’argument est souvent avancé par les ONG et les autorités spirituelles comme l’Eglise catholique. D’autres arguments, qui sont plutôt cette fois le fait d’Etats, sont eux de type conséquentialistes, c’est-à-dire qu’ils évaluent le caractère bon ou mauvais des SALA au vu des effets probables que leur utilisation entraînerait. Parmi ces effets indésirables figurent ainsi la possibilité qu’un robot, qui est dénué de sens moral, soit incapable de désobéir s’il recevait un ordre immoral ou illégal par exemple, ou qu’il puisse être retourné par l’adversaire contre ses utilisateurs. Mais ce type d’argument est à double tranchant, car rien ne prouve qu’à terme un SALA ne pourrait pas respecter le DIH mieux qu’un être humain.

La CAIA : Comment l’encadrement juridique des SALA est-il envisagé aujourd’hui ?

JBJV : Plusieurs pistes sont envisagées. Les anti-SALA réclament la mise en place d’un régime d’interdiction préventive, c’est-à-dire la prohibition non seulement de toute utilisation, mais également de toute recherche ou développement dans le domaine. Cette conception n’est selon moi pas bonne. A l’interdiction préventive, trop radicale et qui pourrait nous priver de développements utiles, je préfère la mise en place de filets de sécurité. L’objectif pourrait être d’obtenir un code de bonne conduite sur le modèle du document de Montreux (qui encadre l’usage des sociétés militaires privées). Ce document ne serait pas juridiquement contraignant, mais il récapitulerait le droit applicable et contiendrait un certain nombre de garde-fous pouvant guider l’usage potentiel des SALA. Premier garde-fou : ne déployer des SALA que là où ils n’auront pas à discriminer leurs cibles, comme je l’ai dit plus haut. Deuxième garde-fou : programmer les SALA pour qu’ils ne traitent que certaines catégories de cibles matérielles, à savoir celles que le DIH désigne comme militaires par nature (un dépôt de munitions par exemple), et non par usage (même un hôpital ou une ambulance peuvent le devenir à certaines conditions, et l’interprétation est alors délicate). Troisième garde-fou : programmer le bénéfice du doute, de façon à ce que le SALA consulte sa hiérarchie en cas de situation ambiguë.

 

NDLR : Jean-Baptiste Jeangène Vilmer développe cette  position dans l’article « Terminator Ethics : faut-il interdire les "robots tueurs"? », Politique étrangère, 4:2014, p. 151-167.

 

(*) In the loop: l’humain décide et la machine exécute ; on the loop: la machine propose et l’humain peut opposer son véto ; out of the loop, la machine est totalement indépendante.

 

Propos recueillis par Flavien Dupuis

 

    
Jean-baptiste Jeangène Vilmer
Jean-Baptiste Jeangène Vilmer, est docteur en science politique et en philosophie, juriste, et chargé de mission « Affaires transversales et sécurité » au Centre d’analyse, de prévision et de stratégie (CAPS) du Ministère des affaires étrangères.
 

Auteurs

Jean-baptiste Jeangène Vilmer

Articles liés par des tags

Commentaires

Aucun commentaire

Vous devez être connecté pour laisser un commentaire. Connectez-vous.