“AUTONOMIE” : POLYSÉMIE, CONFUSION, ÉTHIQUE
Les questions d’éthique concernant les armes obligent à préciser des termes qui ne vont pas de soi. Catherine Tessier met en lumière trois problèmes autour du mot autonomie, trois éclairages pour les conscience
Un drone peut être qualifié d’« autonome », ou bien de « partiellement » ou « semi autonome », ou encore, comme le dit le Comité d’éthique de la défense, comme « intégrant de l’autonomie ». Cependant l’usage des termes « autonomie » et « autonome » pour caractériser un objet est problématique à plusieurs titres [Steels21].
Le premier problème est d’ordre sémantique. Dans l’expression « drone autonome », « autonome » est employé selon l’acception de la robotique : un robot « autonome » est une machine mobile dotée de capacités programmées de perception et de calcul d’actions qu’elle effectue dans son environnement, sans intervention extérieure, ces actions étant spécifiées dans un cahier des charges précis. Or l’acception courante du mot « autonomie », à propos d’êtres vivants et particulièrement d’êtres humains, est la faculté de déterminer ses propres objectifs et de choisir librement ses actions. Il se crée alors une confusion entre les acceptions, source de malentendus, de craintes ou d’attentes infondées, y compris au sein des instances de négociations internationales : un drone « autonome » serait imprévisible par nature, prendrait « lui-même » des « initiatives » ou « déciderait » de lui-même [CNPEN21].
FACULTE DE DETERMINER SES PROPRES OBJECTIFS ET DE CHOISIR LIBREMENT SES ACTIONS
Le deuxième problème est d’ordre fonctionnel. Lorsqu’on dit qu’un drone est « autonome », quelles fonctions exactement sont automatisées ? Car il s’agit bien de cela : loin des discours stériles au sujet des différences entre « automatisé » et « autonome », c’est une fonction, ou un ensemble de fonctions, qui est automatisé, c’est-à-dire mis sous forme mathématique puis programmé sur un ordinateur, le plus souvent embarqué dans la machine. On peut ainsi envisager d’automatiser les fonctions de déplacement dans l’espace, d’élaboration de la situation tactique, d’évaluation de cette situation, d’engagement de cibles. Il convient alors de se poser la question : pour quelles raisons souhaite-t-on automatiser ces fonctions ?
Le troisième problème est d’ordre scientifique et technique. La mise sous forme mathématique (modélisation) des environnements dans lesquels le drone est susceptible d’évoluer, des critères de calcul des actions, est-elle possible ? Par exemple, il semble illusoire de modéliser le principe de proportionnalité, alors même qu’il n’est pas défini précisément – justement parce c’est le jugement humain qui, dans une situation particulière, estimera qu’une action est ou non compatible avec ce principe.
Les questions d’éthique concernant l’automatisation de fonctions embarquées dans des robots armés ne peuvent être envisagées qu’en posant clairement le vocabulaire et en décrivant précisément les mécanismes scientifiques et techniques de ces fonctions. C’est d’ailleurs là la première posture éthique à adopter.
Pour aller plus loin :
- Luc Steels – Defining AI for purposes of ethics and legal regulations. AI4EU Workshop: The Culture of Trustworthy AI. Public debate, education, practical learning, September 2021. https://www.youtube.com/watch?v=1B2dsOZcxfA (à partir de 16mn45s)
- Comité National Pilote d’Éthique du Numérique – Avis 2 : Le véhicule « autonome » : enjeux d’éthique, avril 2021. https://www.ccne-ethique.fr/fr/actualites/cnpen-le-vehicule-autonome-enjeux-dethique
Catherine Tessier, Référente intégrité scientifique et éthique de la recherche de l’ONERA Membre du Comité d’éthique de la défense et du Comité national pilote d’éthique du numérique.
|
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.