Demande visant l’interdiction internationale de la militarisation de l’intelligence artificielle

Publié le lundi 6 novembre 2017

Le professeur Ian Kerr et les membres de la communauté des chercheuses et chercheurs en matière d’intelligence artificielle exhortent le gouvernement à faire du Canada le 20e pays du monde à s’élever, à l’échelle internationale, contre la militarisation de l’IA, soit en interdisant tout système d’IA dépourvu de contrôle humain significatif pour ce qui est de déterminer la légitimité des cibles et le déploiement d’une force meurtrière.

Une lettre ouverte rédigée par cinq spécialistes canadiens en matière de recherche sur l’intelligence artificielle exhorte le Premier ministre à régler sans délai la question des armes létales autonomes (souvent appelées « robots tueurs ») et à adopter une position de chef de file contre les Systèmes d’armes létales autonomes sur la scène internationale, lors des prochaines réunions de l’ONU à Genève.

« Déléguer des décisions de vie ou de mort à des machines équivaut à franchir une ligne morale fondamentale, peu importe quel côté les construit ou les utilise. Jouer à la roulette russe avec la vie d’autrui ne saurait en aucun cas être justifié au seul motif de l’efficacité. Il ne s’agit pas uniquement d’une question fondamentale en droits de la personne. La décision de bannir ou d’autoriser des armes autonomes réside au cœur même de notre humanité » soutient le professeur Kerr.

Les signataires de la lettre sont :

  • Ian Kerr, Titulaire de la Chaire de recherche du Canada en éthique, droit et technologie, Université d’Ottawa
  • Yoshua Bengio, Titulaire de la Chaire de recherche du Canada en algorithmes d'apprentissage statistique, Université de Montréal
  • Geoffrey Hinton, Fellow en génie pour Google et conseiller scientifique en chef, The Vector Institute
  • Rich Sutton, Titulaire de la Chaire d’AITF en apprentissage par renforcement et intelligence artificielle, Université de l’Alberta
  • Doina Precup, Titulaire de la Chaire de recherche du Canada en apprentissage automatique, Université McGill

La lettre et la liste, comportant plus de 200 signatures, sont disponibles sur le site Web du Centre de recherche en droit, technologie et société. Vous pouvez ajouter votre nom à la liste de signataires grâce au formulaire en ligne.

« Des citoyens engagés signent chaque jour des pétitions, et pourtant il est rare que des chefs d’entreprises, des scientifiques et des technologues réclament des interdictions à l’égard d’innovations de quelque sorte que ce soit, et encore moins un bannissement total. Ce bannissement revêt donc une signification de la plus haute importance. La communauté canadienne de la recherche en IA est sans équivoque : nous ne devons pas permettre que l’IA puisse cibler ou tuer en l’absence d’un contrôle humain significatif » déclare le professeur Kerr.

Cliquez pour en savoir plus sur les efforts déployés afin d’interdire l’IA qui tue.

Cliquez ici pour de plus amples renseignements sur l’IA comme arme et pour consulter les biographies des auteurs de la lettre.

Cliquez ici pour lire la lettre d'opinion du professeur Kerr dans le Globe and Mail : Weaponized AI would have deadly, catastrophic consequences. Where will Canada side?

Haut de page