Quatre nuances de régulation de l’intelligence artificielle

Dossier : Contrôler l’intelligence artificielle ?
Une cartographie des conflits de définition
Par Bilel Benbouzid, Yannick Meneceur, Nathalie Alisa Smuha
Français

En enquêtant sur les débats autour des enjeux de la régulation de l’IA, nous avons observé que les problèmes définitionnels étaient au cœur de conflits normatifs sur les moyens d’assujettir l’IA à un « contrôle social », qu’il soit technique, éthique, juridique ou politique. En prenant comme fil rouge de l’analyse les significations variées de l’IA, cet article vise à participer à la compréhension des tensions normatives sur son contrôle. Nous proposons une cartographie des lieux, des acteurs et des approches qui donne à voir comment les débats autour du contrôle de l’IA se structurent selon quatre arènes normatives différenciées, soit : les spéculations transhumanistes sur les dangers d’une superintelligence et le problème du contrôle de son alignement aux valeurs humaines ; l’auto-responsabilisation des chercheurs développant une science entièrement consacrée à la certification technique des machines ; les dénonciations des effets néfastes des systèmes d’IA sur les droits fondamentaux et le contrôle des rééquilibrages des pouvoirs ; enfin, la régulation européenne du marché par le contrôle de la sécurité du fait des produits et service de l’IA.

  • régulation
  • intelligence artificielle
  • AI safety
  • alignement des valeurs
  • robustesse
  • équité
  • Fair ML
  • explicabilité
  • Artificial Intelligence Act
Voir l'article sur Cairn.info