La boîte noire et le médecin

Par Sonia Desmoulin
Français

Le déploiement d’outils d’aide à la décision basés sur des techniques d’intelligence artificielle a mis en lumière les enjeux d’explicabilité et de transparence dès lors que le traitement automatisé rend plus opaque le cheminement allant des données d’entrées aux résultats en sortie. À partir d’outils développés pour la prise en charge du cancer et de la sclérose en plaques, cet article propose de confronter la réflexion théorique des juristes et les préoccupations pratiques des professionnels de la médecine sur cette question. En s’appuyant sur la littérature juridique, d’un côté, et sur des entretiens et des fiches d’évaluation, de l’autre, l’analyse aboutit au constat d’une disjonction partielle : les professionnels se soucient bien davantage des données d’entraînement et des modalités de validation que de la « logique » interne de l’algorithme informatique et considèrent les options techniques plus ou moins explicables de manière complémentaire plutôt qu’alternative. L’adoption du nouveau Règlement européen sur l’IA offre toutefois des perspectives de convergence intéressantes susceptibles de soutenir l’effectivité des principes d’explicabilité et de transparence sous leurs diverses déclinaisons juridiques.

  • ia
  • explicabilité
  • transparence
  • droit
  • cancérologie
  • neurologie