L’agentivité algorithmique, fiction futuriste ou impératif de justice procédurale ?

Dossier : Contrôler l’intelligence artificielle ?
Réflexions sur l’avenir du régime de responsabilité du fait de produits défectueux dans l’Union européenne
Par Ljupcho Grozdanovski
Français

Cette étude examine si un niveau élevé de protection juridictionnelle peut être garanti dans des cas de dommages résultant de décisions autonomes et opaques, prises par des systèmes de Machine Learning (ML). Analysant les moyens procéduraux offerts par la directive dite ‘produits défectueux’, cette étude fait deux propositions majeures. D’abord, que pour la preuve de la responsabilité de fait (accountability), soit appliquée la logique de responsabilité pour faute, laissant aux programmeurs, utilisateurs et déployeurs de systèmes ML la possibilité de réfuter la présomption d’agentivité humaine, en démontrant que la faute pour un dommage donné doit être placée sur un algorithme ayant agi seul. Ensuite, s’agissant de la réparation d’un dommage algorithmique (liability), il est proposé que l’obligation de réparation soit attribuée suivant une logique d’acceptation de risques, pour les systèmes ML à ‘haut risque’ de préjudicie, ou une logique de force majeure, pour tout dommage algorithmique non encore survenu en pratique.

  • Machine Learning
  • opacité
  • justice
  • agentivité
  • responsabilité
  • preuves
Voir l'article sur Cairn.info