6 décembre 2021 | tiré de Demecracy Now !
AMY GOODMAN de Democracynow.org. Nous terminons l’émission d’aujourd’hui en examinant comment les militant-e-s des droits de l’homme dans certains pays appellent à une interdiction totale de l’utilisation d’armes létales autonomes connues sous le nom de « robots tueurs » qui peuvent prendre l’ordre final de tuer sans qu’un humain supervise le processus. Le Washington Post rapporte qu’au moins 30 pays ont appelé à une interdiction des robots tueurs. Mardi dernier, la Nouvelle-Zélande a déclaré qu’elle rejoindrait la coalition internationale exigeant une interdiction, déclarant que « la perspective d’un avenir où la décision de prendre une vie humaine est déléguée aux machines est odieuse ». Mais jusqu’à présent, l’administration Biden a rejeté les appels à interdire l’utilisation de robots tueurs. Lors d’une réunion de l’ONU à Genève jeudi, les États-Unis ont plutôt proposé d’établir un code de conduite pour leur utilisation. Pour en savoir plus, nous avons joint Steve Goose, directeur de la division Armes de Human Rights Watch et cofondateur de la Campagne pour arrêter les robots tueurs. Steve, merci beaucoup de vous être joint à nous à nouveau. Expliquez d’abord ce que sont les robots tueurs, puis parlez du rôle des États-Unis dans la lutte contre l’interdiction.
STEPHEN GOOSE : Les robots tueurs sont une réalité à venir, mais cet avenir n’est pas lointain. Ce sont des armes qui sortent l’humain du contrôle final. C’est-à-dire que ce n’est pas l’humain qui décide quoi cibler et quand tirer sur la gâchette, mais plutôt le système d’arme qui le fait grâce à l’intelligence artificielle, aux capteurs et aux algorithmes. Ce n’est pas seulement une nouvelle arme, c’est une nouvelle forme de guerre. Ce n’est pas un arme acceptable pour l’humanité.
AMY GOODMAN : Expliquez qui les développe, qui les utilise et quelle est la position des États-Unis par rapport à des pays comme la Nouvelle-Zélande ou d’autres pays.
STEPHEN GOOSE : Il y a une poignée de pays qui poursuivent très vigoureusement des programmes de recherche et de développement visant à l’acquisition de robots tueurs ou d’armes entièrement autonomes. Les États-Unis sont peut-être en tête de liste. Les autres pays sont la Russie, Israël, la Corée du Sud, l’Inde. Ce sont les pays à problèmes, mais il y en a d’autres. La plupart des armées modernes développent des armes qui ont de plus en plus d’autonomie dans les systèmes. La question est de savoir jusqu’où aller. Allez-vous jusqu’à ce que vous retiriez complètement le contrôle aux humains ou tracez-vous une ligne où il y a encore un contrôle humain significatif ? Pour les États-Unis, leur position est essentiellement de vouloir protéger leur capacité de produire ces armes, de sorte qu’ils rejettent toute notion d’un traité qui imposerait des interdictions ou des restrictions sur le développement et l’acquisition d’armes entièrement autonomes et proposent plutôt des mesures qui permettraient l’acquisition des armes, mais soumis à des règlements sur la façon dont elles sont utilisées.
AMY GOODMAN : Plus tôt cette année, le New York Times a publié un article sur l’utilisation d’une arme autonome pour tuer un scientifique nucléaire iranien. Pouvez-vous nous en parler ?
STEPHEN GOOSE : Il y a beaucoup de malentendus sur ce que pourrait être le robot tueur et s’ils existent ou non aujourd’hui. Des systèmes ayant une grande autonomie existent déjà. En effet, les drones ont une grande autonomie. Vous parliez tout à l’heure des drones. Mais les systèmes qui éliminent complètement l’humain de tout contrôle sont ce à quoi nous essayons de nous opposer et ceux-ci n’existent pas encore.
AMY GOODMAN : Pouvez-vous nous parler de la réunion de Genève qui a lieu sur certaines armes classiques ? Expliquez son importance et le récent rapport de Human Rights Watch, « Crunch Time on Killer Robots ». Le droit international existant n’est pas adéquat pour faire face aux menaces urgentes que représentent ces armes que certains pays développent.
STEPHEN GOOSE : Il y a des pourparlers diplomatiques qui ont eu cours la semaine dernière et qui visent à développer des options pour les travaux futurs sur ce qu’ils aiment appeler des systèmes d’armes létales autonomes ou LAWS, un acronyme très malheureux pour cette question. Ceux-ci se préparent à une conférence quinquennale d’examen de cette Convention sur certaines armes classiques, qui aura lieu la semaine prochaine. Lors de cette conférence d’examen quinquennale, ils sont censés examiner ce qu’ils ont fait au cours des cinq dernières années et planifier les cinq prochaines années.
Une décision devra être prise sur ce qu’il faut faire sur les robots tueurs et ils examinent les différentes options possibles. La majorité des pays veulent voir un encadrement juridiquement contraignant, un nouveau traité qui imposerait des interdictions et des règlements sur les armes entièrement autonomes. D’autres proposent une déclaration politique non contraignante. D’autres proposent un code de conduite. Le problème avec le code de conduite, c’est qu’il présuppose qu’en effet vous poursuivrez à développer ces armes, et qu’il s’agira simplement de savoir dans quelle mesure vous pouvez les réglementer. Nous pensons que c’est une approche qui entraînera la prolifération de ces armes dans le monde entier avec l’effet déstabilisateur qui est trop facile à imaginer.
AMY GOODMAN : Je tiens à vous remercier beaucoup d’être avec nous. Steve Goose est directeur de la division Armes de Human Rights Watch et cofondateur de la Campagne pour arrêter les robots tueurs.
Un message, un commentaire ?