Contenu de l'article

Titre La boîte noire et le médecin : Enquête sur l'enjeu juridique de l'explicabilité des IA médicales
Auteur Sonia Desmoulin
Mir@bel Revue Réseaux (communication - technologie - société)
Numéro no 248, novembre-décembre 2024 Intelligences artificielles et médecine
Rubrique / Thématique
Intelligences artificielles et médecine
Page 227-261
Résumé Le déploiement d'outils d'aide à la décision basés sur des techniques d'intelligence artificielle a mis en lumière les enjeux d'explicabilité et de transparence dès lors que le traitement automatisé rend plus opaque le cheminement allant des données d'entrées aux résultats en sortie. À partir d'outils développés pour la prise en charge du cancer et de la sclérose en plaques, cet article propose de confronter la réflexion théorique des juristes et les préoccupations pratiques des professionnels de la médecine sur cette question. En s'appuyant sur la littérature juridique, d'un côté, et sur des entretiens et des fiches d'évaluation, de l'autre, l'analyse aboutit au constat d'une disjonction partielle : les professionnels se soucient bien davantage des données d'entraînement et des modalités de validation que de la « logique » interne de l'algorithme informatique et considèrent les options techniques plus ou moins explicables de manière complémentaire plutôt qu'alternative. L'adoption du nouveau Règlement européen sur l'IA offre toutefois des perspectives de convergence intéressantes susceptibles de soutenir l'effectivité des principes d'explicabilité et de transparence sous leurs diverses déclinaisons juridiques.
Source : Éditeur (via Cairn.info)
Résumé anglais The deployment of decision-support tools based on artificial intelligence techniques has highlighted issues of explainability and transparency when automated processing renders the path from input data to output results opaque. By studying tools developed for the treatment of cancer and multiple sclerosis, this paper compares the theoretical thinking of legal experts with the practical concerns of medical professionals on this issue. Drawing on the legal literature and on interviews and evaluation forms, the analysis reveals a partial disjunction: professionals are far more concerned with training data and validation methods than with the internal ‘logic' of the computer algorithm; they consider the technical options, which are more or less explainable, to be complementary rather than alternative. However, the adoption of the new European Regulation on AI does offer interesting prospects for convergence likely to support the effectiveness of the principles of explainability and their various legal declinations.
Source : Éditeur (via Cairn.info)
Article en ligne https://shs.cairn.info/revue-reseaux-2024-6-page-227?lang=fr