Média indépendant, en accès libre pour tous, sans publicité, financé par les dons de ses lecteurs

TribuneMonde

La France refuse toujours d’interdire les robots tueurs

Des robots de plus en plus autonomes, voire capables de prendre la décision de tuer, cela ne relève plus de la science-fiction, nous alerte l’auteur de cette tribune. Pourtant, une dizaine de pays s’opposent toujours à la négociation d’un traité d’interdiction. Dont la France.

Stan Brabant est directeur adjoint du Groupe de recherche et d’information sur la paix et la sécurité (Grip) ; Le Grip oeuvre pour le désarmement et l’interdiction des robots tueurs.


Le 11 novembre 2018, à Paris, António Guterres, secrétaire général des Nations unies, déclarait : « Imaginez les conséquences d’un système autonome capable de repérer et d’attaquer de lui-même des êtres humains. J’invite les États à interdire ces armes qui sont politiquement inacceptables et moralement révoltantes. »

Ces mots alarmants d’António Guterres désignent ce que l’on appelle des « robots tueurs ». En d’autres termes, des armes entièrement autonomes. Si elles n’existent pas encore, des armes « de plus en plus autonomes » les préfigurant sont déjà produites par une vingtaine d’États.

Un exemple récent : le bateau de combat sans pilote Jari actuellement développé par une firme d’État chinoise. Long de quinze mètres, il est notamment équipé de missiles, d’un lance-torpilles, d’un lance-roquettes et d’une mitrailleuse qui tire automatiquement, après des coups de semonce. Le Jari utilise l’intelligence artificielle pour naviguer de manière autonome et entreprendre des activités de combat une fois qu’il en a reçu l’ordre. Il est programmé pour opérer en mode autonome, semi-autonome ou commandé à distance. D’après ses développeurs, le Jari a encore besoin de tests supplémentaires « pour libérer tout son potentiel en tant que drone de combat entièrement autonome ».

Comme le montre cet exemple, des robots tueurs capables de repérer et d’attaquer des êtres humains de manière indépendante pourraient bientôt ne plus appartenir à la science-fiction. Le niveau de contrôle humain sur les armes autonomes est en effet de plus en plus réduit, ouvrant progressivement la porte à des situations où la décision de tuer sera prise par une machine, et non plus par une personne. Ce transfert de responsabilité de l’humain à la machine pose toute une série de problèmes, notamment d’ordre juridique et militaire.

Comment traduire un robot tueur en justice ?

Un premier problème – majeur – concerne le respect du droit international humanitaire, en particulier l’obligation pour les parties en conflit de faire la distinction entre combattants et non combattants, de garantir que les victimes civiles et les dommages causés à des bâtiments civils ne soient pas disproportionnés par rapport aux gains militaires attendus, et de prendre les précautions nécessaires pour protéger les populations civiles. Comme le souligne le comité international de la Croix-Rouge, « ces obligations ne peuvent pas être transférées à une machine ». Car le respect du droit international humanitaire nécessite une capacité d’analyse et d’empathie dont ne dispose pas un robot tueur, si performant soit-il. Pour reprendre les termes du lieutenant-colonel retraité John MacBride, « une machine déterminerait si la cible est un combattant uniquement sur la base d’une programmation probablement développée dans un laboratoire stérile des années avant que la décision de tuer ne soit prise ».

De plus, l’impossibilité pour un robot tueur d’être traduit en justice en cas de crime commis constitue une difficulté supplémentaire. En d’autres termes, un robot tueur pourrait frapper en toute impunité. Et ses victimes seraient privées de justice puisque la responsabilité serait impossible à établir.

Un autre problème concerne le risque que le recours aux robots tueurs ne facilite le déclenchement de conflits armés. D’abord parce qu’il élimine les dernières barrières psychologiques à l’utilisation de la force. Ensuite, parce qu’en réduisant le coût humain d’un conflit armé, le recours aux robots tueurs rend l’entrée en guerre plus facile et diminue l’incitation à trouver une solution politique. Comme le souligne l’organisation néerlandaise PAX, le recours aux robots tueurs crée également le risque d’une course aux armements, ainsi que celui d’une escalade rapide et accidentelle de conflits où des robots tueurs s’affronteraient à des vitesses ne permettant plus un contrôle humain.

Les robots tueurs étant relativement peu coûteux et faciles à copier, ils pourraient également proliférer et tomber aux mains de groupes terroristes. Voire être piratés. Enfin, les interactions entre robots tueurs ennemis seraient très imprévisibles.

Le jugement humain est essentiel à l’acceptabilité des systèmes d’armes

Depuis 2013, au moins 78 États ont déjà appelé à l’interdiction des robots tueurs, mais une dizaine d’États s’opposent toujours à la négociation d’un traité d’interdiction, qu’ils jugent « prématurée ». Parmi ces États figure la France, qui affirme pourtant refuser de confier la décision de vie ou de mort à une machine entièrement autonome [NDLR : En 2019, la France a néanmoins assuré qu’elle ne développerait pas de robots tueurs.]. En effet, comme l’écrit Human Rights Watch, « la grande majorité des pays qui se sont exprimés à ce jour considèrent la prise de décision, le contrôle ou le jugement humains comme essentiels à l’acceptabilité et à la légalité des systèmes d’armes ».

C’est pourquoi les prochains mois pourraient être très importants. L’interdiction de « ces armes qui sont politiquement inacceptables et moralement révoltantes », selon le secrétaire général de l’ONU, semble possible, à condition bien sûr de résoudre le blocage de quelques États. Ou de se passer de ces États pour avancer.


📨 S’abonner gratuitement aux lettres d’info

Abonnez-vous en moins d'une minute pour recevoir gratuitement par e-mail, au choix tous les jours ou toutes les semaines, une sélection des articles publiés par Reporterre.

S’abonner
Fermer Précedent Suivant

legende