samedi 8 août 2015

Le combat ardu contre les robots tueurs

MAJ de la page : Robots (tag)

Robots districs

Les chercheurs et personnalités du monde scientifique se mobilisent pour faire interdire la guerre automatisée.
Le 28 juillet 2015 - Metronews

C’est une révolution cynique que pourrait constituer celle du recours aux armes de guerre autonomes. Tandis que nos sociétés utilisent les machines pour intervenir au service de l’humain, lui offrir plus de confort et le libérer de certaines tâches fastidieuses, le secteur militaire s’intéresse à l’intelligence artificielle pour opérer des actions militaires sans intervention humaine.

Et c’est bien ce qui affole le milieu scientifique et les milliers de personnalités signataires d’une lettre ouverte intitulée “Armes automatiques : lettre ouverte des chercheurs en robotique et en intelligence artificielle”. Présentée à Buenos Aires (Argentine) le 27 juillet dernier lors d’une conférence internationale portant sur l’intelligence artificielle, cette lettre se présente comme une action de prévention contre la course à l’armement automatisé au niveau mondial, c’est-à-dire l’emploi de robots tueurs lors de frappes guerrières.

Philosophes, scientifiques et entrepreneurs unis contre les machines de guerre

Si les signataires de la lettre reconnaissent l’intérêt de l’intelligence artificielle dans la réduction du nombre de victimes humaines lors des combats, ils veulent toutefois éviter l’essor de ces technologies guerrières au potentiel dévastateur. Car le risque d’intégrer de l’intelligence artificielle dans les armes pourrait s’avérer terrible : décimation de populations sur critères de discrimination d’ethnie, assassinats ciblés et épurations de masse.

Parmi les milliers de signataires de cette lettre, on trouve des noms de penseurs, scientifiques, chercheurs et chefs d’entreprise bien connus tels que Noam Chomsky (linguiste et philosophe), Stephen Hawking (astrophysicien), Elon Musk (dirigeant de Tesla) ou encore Steve Wozniak (co-fondateur d’Apple).

Et si Isaac Asimov avait eu raison ?

Impossible à présent de savoir quel impact réel aura leur signature face aux pouvoirs en présence et aux enjeux économiques et politiques soulevés par cette question de l’intégration des intelligences artificielles à l’armement moderne.

De quoi donner froid dans le dos en tout cas et rendre actuelles les fameuses Lois de la Robotique, imaginées en 1942 par Isaac Asimov :
- Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
- Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Source : metronews

* * *

Robots tueurs : ce n'est plus de la science fiction, l'ONU ouvre le débat sur leur légalité
Le 10 avril 2015 - Metronews

DRONES – Aujourd'hui, il est techniquement possible de fabriquer des robots tueurs. Mais les questions éthiques et juridiques sont nombreuses, et l'ONU se penche sérieusement sur la question.

"Un cyborg doté d'un endosquelette de métal mu par des microprocesseurs, dont le but est de tuer" c'est le Terminator, célèbre personnage de fiction de James Cameron apparue pour la première fois sur les écrans en 1984. Un robot tueur, implacable, sans état d'âme et redoutablement efficace.

30 ans plus tard, la réalité rattrape la fiction. Pour preuve la prochaine réunion de l'ONU, qui se tiendra à Genève du 13 au 17 avril 2015, sur la question des "systèmes létaux d’armes autonomes", ou dans un langage plus familier, "les robots tueurs".

Le problème des responsabilités

Car la technologie permet aujourd'hui de concevoir de tels systèmes, même si pour l'instant ils ne sont pas encore utilisés. Les drones militaires capables de tuer sont à l'heure actuelle toujours sous contrôle humain. Mais pour combien de temps encore ? Les questions éthiques sont nombreuses.

Ainsi, l'ONG Human Rights Watch vient de publier un rapport mettant en relief les problèmes des responsabilités juridiques liés aux robots tueurs. "L’absence de responsabilité légale équivaut à l’absence de dissuasion de futurs crimes, à l’absence de justice pour les victimes et à l’absence de condamnation par la société des utilisateurs de ces armes".

Un débat passionné

Un débat à peine entamé qui divise déjà les nations. Le Monde rapportait en octobre dernier que la ministre de la Défense norvégienne, Ine Eriksen Søreide, était favorable à l'émergence de cette technologie. "Il serait inopportun d'interdire le développement des robots tueurs. Il est aujourd'hui difficile de savoir ce que recouvre cette notion. Il n'y a actuellement aucune technologie qui puisse vraiment recevoir ce qualificatif".

A l'inverse, Akram Zamir, le représentant permanent du Pakistan à l'ONU, est clairement opposé aux robots tueurs "L'introduction des systèmes létaux d’armes autonomes serait illégale, non éthique, inhumaine et irresponsable, ainsi que déstabilisante pour la paix et la sécurité internationale avec de graves conséquences".

Une réunion qui s'annonce houleuse, en espérant que la réalité ne rejoigne pas vraiment la fiction. Car dans le film de James Cameron, les robots tueurs déclarent la guerre à l'humanité "car ils ne pouvaient tolérer l'existence d'une décision humaine". Et notre sort a été scellé en une microseconde : "l'extermination".

Source : Metronews

* * *

Le combat ardu contre les robots tueurs
Toute la semaine, les Etats discutent à Genève des robots au service de la guerre. Un débat fondamental.
Par Cathy Macherel, le 14 avril 2015

Imaginez une machine apte à décider, sans supervision humaine, quelle cible, quand et pour quelle raison stratégique elle va frapper dans le cadre d’un conflit armé. Une machine programmée pour détenir un pouvoir absolu, le droit de vie ou de mort sur des êtres humains. Ou imaginez encore des Robocops armés et dotés d’une intelligence artificielle, lancés sur le champ de bataille.

Avec l’explosion du marché de la robotique de guerre, dont les drones incarnent aujourd’hui la réalité la plus tangible, les experts s’accordent à dire que cette évolution ne relève plus de la science-fiction: d’ici trente, vingt ou même dix ans, les Etats les plus puissants de la planète auront la capacité technologique de mettre au point de telles armes, suffisamment intelligentes pour être autonomes. Ceux qui les défendent y voient la perspective de combats sans pertes humaines dans leurs rangs, budgétairement moins lourds et beaucoup plus efficaces.

Ce développement, déjà en marche, soulève évidemment maintes questions éthiques, relatives au droit humanitaire, et occupe l’ONU. Depuis deux ans, la communauté internationale débat concrètement de l’opportunité de dresser les contours d’une réglementation des armes létales automatisées dans le cadre de la Convention sur certaines armes classiques, laquelle siège à Genève. Avec un panel d’options: adopter des règles de conduite, un moratoire ou une interdiction pure et simple. Cette semaine, les représentants de 87 pays se penchent sur la question à Genève. Des experts y sont invités à présenter l’état du développement technologique dans ce domaine et la question de savoir quels équipements pourraient rentrer dans la définition juridique des armes létales automatisées.

Aucune décision ne sera prise à la fin de la semaine, mais à chaque avancée des travaux, les ONG regroupées au sein de la campagne «Stop Killer Robots» se font entendre en marge des débats. Car comment accepter que les robots de guerre puissent se substituer à la pesée morale, éthique, de toute décision militaire? Et qui serait responsable juridiquement en cas d’attaque illicite, comme interroge l’ONG Human Rights Watch dans un récent rapport?

Les ONG réclament d’urgence un traité international permettant de prohiber spécifiquement le développement, la production et l’usage de robots tueurs. Et elles s’impatientent. Pour la professeure américaine Jody Williams, nobélisée en 1997 pour son combat contre les mines antipersonnel, il est incompréhensible qu’une poignée d’Etats temporisent sur ces questions, alors qu’une majorité de pays sont favorables à une réglementation immédiate. «Les robots tueurs vont changer le visage de la guerre, on se situe dans un développement aussi révolutionnaire que la bombe nucléaire. Les Etats-Unis et le Royaume-Uni diraient que c’est un progrès; en réalité, moralement, éthiquement, c’est un énorme bond en arrière», a-t-elle fait valoir lundi à Genève, en marge des discussions.

De fait, le combat des ONG pour une interdiction des armes létales entièrement automatisées se présente comme ardu. A défaut d’une interdiction spécifique, une réglementation stipulant que l’emploi de toute arme doit se faire sous monitoring humain est l’une des pistes que suivent aussi les ONG. Une position à laquelle semblent adhérer nombre d’Etats présents cette semaine à la conférence. C’est le cas des deux tiers des 30 pays ayant pris la parole lundi, selon Thomas Nash, de l’ONG britannique Article 36.


Mais au vu des enjeux militaires et économiques, il est difficile d’imaginer que les grandes puissances renoncent à la course à l’armement robotisé. Le Royaume-Uni a fait savoir lundi qu’il était contre toute interdiction, arguant que le droit humanitaire international était suffisant pour réguler ces questions. Il y a une semaine, l’armée américaine a annoncé préparer pour janvier 2016 une doctrine réglementant l’usage des systèmes militaires inhabités et robotiques, doctrine jusqu’ici inexistante. En précisant qu’il n’était pas prévu de doter les systèmes terrestres inhabités d’une capacité létale autonome. Mais les Etats-Unis avaient dit l’an dernier qu’il était trop tôt pour envisager toute interdiction ou moratoire sur ce type d’armement. (TDG)

Source : TdG

* * *

Appel lancé pour interdire des robots tueurs
Armes de guerreHuman Rights Watch (HRW) et d'autres ONG plaident en faveur d'une interdiction préventive des robots tueurs, à l'intention des Etats parties à la Convention qui se tient jeudi et vendredi à Genève.
Le 13 novembre 2013

Vous voulez communiquer un renseignement ou vous avez repéré une erreur?
Human Rights Watch (HRW) et d'autres ONG ont demandé mercredi aux gouvernements d'ouvrir des discussions sur un traité interdisant les robots tueurs. Ces armes pourront sélectionner et attaquer des cibles sans intervention d'un être humain.

HRW et la Faculté de droit de l'Université de Harvard ont publié un mémorandum plaidant en faveur d'une interdiction préventive de ces armes, à l'intention des Etats parties à la Convention sur certaines armes classiques qui se réunissent jeudi et vendredi à Genève.

«Alors que la technologie progresse à grands pas, les gouvernements doivent s'engager dès maintenant dans des pourparlers intensifs sur les dangers potentiels que représentent les armes totalement autonomes», a déclaré la directrice du plaidoyer à la division Armes de HRW et coordonnatrice de la Campagne pour interdire les robots tueurs, Mary Wareham.

«Une interdiction de ces armes à l'échelle internationale est nécessaire pour garantir que des humains conservent le contrôle sur les décisions de prendre pour cible et d'utiliser la force contre d'autres êtres humains», a-t-elle encore ajouté.

Tracer la ligne rouge

La France, qui préside la conférence des Etats parties à la Convention sur certaines armes classiques dites inhumaines, devrait proposer d'inscrire les armes pleinement autonomes au programme de travail de la Convention pour 2014. Une décision est prévue vendredi.

Steve Goose d'HRW a souhaité l'adoption d'un ordre du jour qui soit suffisamment étendu pour que les gouvernements puissent traiter de toute une série de questions concernant la mise au point, la fabrication et l'utilisation des robots tueurs. Un débat sur le potentiel d'autonomie des systèmes d'armement est nécessaire pour comprendre où la ligne rouge doit être tracée. (ats/Newsnet)

Source : TdG

Aucun commentaire:

Enregistrer un commentaire

Related Posts Plugin for WordPress, Blogger...