Vous appréciez ce site?
Faites-le-moi savoir!
Rubriques

Publié le 16 Avr, 2016 dans Guerre perpétuelle

La mort sur pilote automatique : les robots de guerre

(Source : L’OBS – Merci à Clara)

sgr-a1-robot-tueur

Les « killer robots », capables de choisir des cibles et faire feu sans contrôle humain, occupent une place de plus en plus grande dans la recherche l’application militaire. Human Rights Watch sonne l’alarme.

« Il est moralement inacceptable de déléguer la décision de vie ou de mort à des machines ».

Dans un rapport publié lundi 11 avril par l’ONG Human Rights Watch (HRW), Bonnie Docherty donne un aperçu saisissant de ce qu’on appelle désormais « killer robots ».

Ces « armes en mesure de choisir des cibles et de faire feu sur elles sans contrôle humain significatif » occupent une place de plus en plus grande dans la recherche militaire. C’est « l’étape après les drones armés« , décrit la chercheuse de la division armes de HRW.

Bien que ces armes n’existent pas encore à un stade opérationnel complet, l’avancée très rapide de la technologie devrait permettre de passer rapidement d’un système d’arme avec un opérateur humain « dans la boucle » de commandement, à un système où ce dernier est absent, « en dehors de la boucle », alerte la chercheuse.

Commentaire :
Faux : ces robots tueurs existent bel et bien et sont déjà en fonction. Par exemple, le SGR-AI est utilisé au sud de la frontière entre les deux Corée. Son arsenal : des mitrailleuses et un lance-grenades. Aussi, le C-RAM américain est utilisé en Irak : il détecte, combat et, bien entendu, tue des gens. Ne ne sont là que deux exemples sur quelques centaines…

Avec l’aide du Laboratoire des droits humains internationaux de la Faculté de droit de l’Université de Harvard, elle invite donc les Etats à adopter des mesures internationales et des lois nationales « juridiquement contraignantes » pour interdire « le développement, la production, et l’utilisation d’armes entièrement autonomes« .

.

Juger si une cible est légitime

« Il serait difficile pour une arme entièrement autonome d’exercer un jugement prudentiel« , souligne Bonnie Docherty. Les humains ont un potentiel d’empathie. Ils peuvent distinguer les combattants des civils ou des soldats blessés. Identifier si un individu est une cible légitime, dépend souvent de la capacité de détecter et d’interpréter le ton de la voix ou le langage corporel, détaille-t-elle dans son rapport. Les armes totalement autonomes seraient incapables de ressentir de quelconques émotions, ce qui peut agir comme un frein à l’utilisation de la force létale, et donc éviter les erreurs. Il est impossible d’intégrer de tels composants dans les algorithmes des machines.

Le « contrôle humain significatif » sur la sélection et l’engagement des cibles est donc capital.

Et puis, l’utilisation de robots tueurs risque d’entraîner un problème de droit international humain, outil indispensable pour la protection des civils.

.

« Personne ne pourra être tenu responsable »

« Dans la plupart des cas, personne ne pourra être tenu légalement responsable de leurs actions« , rapporte Bonnie Docherty. Ce contrôle humain « permettrait donc de veiller à ce que quelqu’un doivent rendre des comptes concernant des actes illégaux » du robot en matière juridique.

Le concept de contrôle humain significatif est au centre des délibérations de la réunion multilatérale sur ce type d’armes qui s’est ouvert le 11 avril au siège des Nations unies à Genève et dure toute la semaine.

« Il est temps pour les Etats de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques (CCAC) d’aller au-delà des discussions et de prendre des mesures« , explique Bonnie Docherty. Il doit être convenu de « poursuivre les délibérations sur le sujet et de négocier une interdiction juridiquement contraignante » de ces armes.

« Parce que les robots tueurs présentent autant de menaces, la meilleure solution est un traité international qui interdit totalement leur développement, leur production et leur utilisation« , insiste la chercheuse.

Commentaire :
On a le droit de rêver…

HRW n’est d’ailleurs pas seul dans ce combat. Deux rapporteurs spéciaux pour le Conseil des droits de l’Homme avaient mis en avant dans un rapport sur la question que « les systèmes d’armes autonomes qui ne nécessitent aucun contrôle humain significatif devrait être interdit. Lorsqu’une technologie avancée est employée, les responsables de l’application des lois doivent garder personnellement le contrôle sur l’utilisation effective de la force« , indiquaient-ils. Une démarche également soutenue en 2014 par 20 Prix Nobel de la paix.

.

Interdire les « robots tueurs » ?

Pourtant, les recherches militaires dans ce domaine sont toujours largement actives. Et l »industrie de l’armement défend bec et ongle le dossier. Argument central : ces robots permettraient d’épargner la vie de soldats. « Mais ces robots tueurs les mettent également en danger« , rétorque Bonnie Docherty. « Les nombreux problèmes soulevés par les robots tueurs l’emportent sur les avantages militaires« , soutient celle qui met en avant les nombreuses avancées en termes d’interdictions d’armes aux effets traumatiques excessifs ou jugées comme frappant sans discrimination comme les mines anti-personnelles ou l’usage de sous-munitions. « Si les pays peuvent atteindre un tel succès une fois, ils peuvent le faire à nouveau« , conclut-elle.

Partager cet article :