lundi 17 juin 2013

Jugera-t-on un jour les robots pour crime de guerre ?

23 avril 2013 - Campagne d'interdiction des "robots tueurs"
Empêcher l'avènement de nouvelles armes autonomes
"La société civile sera le fer de lance des efforts destinés à convaincre les gouvernements de renoncer aux armes complètement autonomes. Il devrait toujours y avoir un être humain impliqué dans les décisions prises sur un champ de bataille."
HUMAN RIGHTS WATCH - avril 2013

L'existence de ces robots-tueurs relève-t-elle des Droits de l'homme ? 
Pourra-t-on un jour traduire en justice un dispositif qui agit de manière autonome ?

La guerre a changé de visage au cours de la dernière décennie avec l'utilisation croissante de véhicules armés sans équipage ou de drones, créant des défis inédits sur les plans humanitaire et juridique. Les progrès technologiques permettent aux états de se doter de machines entièrement autonomes ce qui fait craindre une escalade dans la course aux armes robotisées et l'extension des conflits.

Considérés comme les armes du futur par la quasi-totalité des armées du globe, ces robots tueurs [lethal autonomous robot/LAR] pourraient en effet choisir leurs cibles sans intervention humaine. Le recours à de telles armes qui transgressent les frontières morale et juridique devrait être inacceptable pour la conscience publique.

HRW est l'instigateur et le coordinateur de la Campagne pour l'interdiction des robots tueurs (Campaign to Stop Killer Robots), une coalition internationale d'Organisations Non Gouvernementales qui appelle à une interdiction préventive et totale des armes autonomes. Interdiction que concrétiserait à la fois un traité international et des lois nationales.

Twitter :  @BanKillerRobots

"On doit tracer une ligne rouge dès maintenant face à des armes qui seraient complètement autonomes," souligne HRW. "Les mettre au point va trop loin dans le recours à la technologie. Une interdiction est nécessaire dès maintenant, avant que les investissements, la dynamique technologique et les nouvelles doctrines militaires ne rendent leur existence inéluctable."


La Campagne pour l'interdiction des robots tueurs rassemble plusieurs ONG qui s'étaient engagées principalement dans les efforts couronnés de succès (mines anti-personnel, larmes à sous-munitions et les lasers aveuglants). Collectivement, ses membres ont accumulé un large éventail de compétences dans les domaines de la robotique et de la science, de l'aide et du développement, des droits de l'homme, du désarmement humanitaire, du droit international et de la diplomatie, ainsi que de l'autonomisation des femmes, des jeunes et des personnes handicapées. 

Le Rapporteur spécial de l'ONU sur les exécutions extrajudiciaires, sommaires et arbitraires, CHRISTOF HEYNS du Haut-Commissariat aux Droits de l'Homme, a rendu son rapport sur les robots autonomes munis d'armes létales lors de la deuxième session du Conseil des droits de l'homme des Nations Unies à Genève en mai 2013. Ce rapport est censé contenir des recommandations à l'adresse des gouvernements pour qu'ils agissent dès maintenant sur la question des robots complètement autonomes.


HEYNS s'est prononcé pour un moratoire au niveau mondial afin de permettre de réfléchir aux problèmes d'éthique soulevés par l'existence de robots qui auraient de facto un droit de vie ou de mort sur les humains. On pense immédiatement au déploiement d'armes automatiques comme le SGR-A1 de Samsung, utilisé à la frontière entre les deux Corée.

Le 19 novembre 2012, HRW et la Clinique des Droits Humains Internationaux de la Faculté de Droit de l'Université de Harvard (Harvard Law School International Human Rights Clinic) avaient publié "Losing Humanity: The Case Against Killer Robots" ("Une arme inhumaine: Les arguments contre les robots tueurs") : un rapport de 50 pages qui donne un aperçu des nombreuses préoccupations suscitées par les armes complètement autonomes, notamment sur les plans juridique, éthique et politique.

Ce rapport établissait que les armes autonomes ne satisferaient pas les critères imposés par le droit international humanitaire dans les situations les plus courantes rencontrées sur un champ de bataille contemporain. Leur utilisation créerait un vide juridique en matière de responsabilité : il serait très difficile d'établir qui serait légalement responsable des actes d'un robot.


Il mettait en évidence que la généralisation de l'usage de robots autonomes et capables de tuer aurait pour effet d'affaiblir les contrôles non juridiques sur les meurtres de civils. Par exemple, des armes pleinement autonomes ne pourraient pas montrer de compassion pour leurs victimes et des autocrates pourraient en abuser en s'en servant contre leur propre peuple.


Le Département américain de la Défense a émis le 21 novembre 2012 une directive qui exige qu'on consulte un être humain quand il s'agit de décider de l'utilisation de la force létale. Mais pour les 10 années à venir, la Directive nº 3000.09 autorise aussi le Département de la Défense à mettre au point et à utiliser uniquement des systèmes pleinement autonomes munis d'une force non létale, à moins que les responsables du Département au plus haut niveau ne décident d'une dérogation à cette politique.

Concrètement, la directive constitue le premier moratoire sur les armes pleinement autonomes dans le monde mais on ne peut pas la considérer comme une solution globale ou permanente aux problèmes potentiels posés par les systèmes d'armes entièrement autonomes. Les réseaux sentinelle ou de surveillance en général sont de plus en plus sophistiqués. Ils mettent en œuvre de multiples technologies (caméras infra-rouge, reconnaissance faciale, vocale, stockage des données, traitement numérique de l'image, servo-systèmes, capteurs, etc.). Ils sont omniprésents dans le secteur de l'industrie ou sur des sites qui accueillent ou non le public (aéroport, zone portuaire, centrale nucléaire, etc).

Leur succès dans le domaine civil a généré un développement à des fins militaires puisqu'il permet à la fois de garantir la sécurité en temps de guerre et de décharger les personnels de tâches dangereuses, répétitives ou simplement salissantes. Un robot intelligent permet en outre de réduire le coût salarial et d'améliorer la stratégie militaire. Car outre remplacer des humains pour des tâches basiques ennuyeuses (monter la garde), ils ont la capacité de répondre instantanément de manière optimale. Ces précurseurs d'une arme de type TERMINATOR  font pointer du doigt les dysfonctionnements possibles. En 2012, neuf soldats ont payé de leur vie l'erreur d'un robot en Afrique du Sud.

Aujourd'hui, l'armée se sert de robots de surveillance et de combat autonomes comme ceux créés par iRobot qui commercialise aussi un aspirateur autonome, le Roomba. On peut dès à présent poser la question essentielle : comment réagir si des robots commettent des crimes de guerre ?

Mais l'existence des robots tueurs ne doit pas faire oublier celle des robots de soutien ou d'assistance aux personnels blessés dans les zones de combat...

Bear  (C) US Army)
Robot de transport (C) Boston Dynamics

1 commentaire: