Contenu de l'article

Titre Un cadre d'autorégulation pour l'éthique de L'IA : opportunités et défis
Auteur Jean-Marie John-Mathews
Mir@bel Revue Vie et sciences de l’entreprise
Numéro no 216-217, juillet 2023 Prix de thèse 2022
Rubrique / Thématique
Prix de these
Page 288-311
Résumé Nous proposons un outil d'autorégulation pour la conception d'IA qui intègre des mesures sociétales telles que l'équité, l'interprétabilité et la confidentialité. Pour ce faire, nous créons une interface qui permet aux praticiens de l'IA (experts en mégadonnées/ data scientists) de choisir visuellement l'algorithme d'apprentissage (Machine Learning/ML) qui correspond le mieux aux préférences éthiques des concepteurs d'IA. En utilisant une méthodologie de conception en design science (science du design), nous testons l'artefact sur des data scientists et montrons que l'interface est facile à utiliser, permet de mieux comprendre les enjeux éthiques de l'IA, génère des débats, rend les algorithmes plus éthiques et est opérationnelle pour la prise de décision. Notre première contribution est de construire un outil de régulation de l'IA qui intègre non seulement les préférences éthiques des utilisateurs, mais aussi les singularités du cas pratique appris par l'algorithme. La méthode est indépendante des cas d'utilisation et des procédures d'apprentissage ML. Notre deuxième contribution est de montrer que les data scientists peuvent choisir librement de sacrifier certaines performances pour atteindre des algorithmes plus éthiques, à condition d'utiliser des outils réglementaires appropriés. Nous fournissons ensuite les conditions dans lesquelles cette approche technique et autorégulatrice peut échouer. Cet article montre comment il est possible de combler le fossé entre les théories et les pratiques en matière d'éthique de l'IA à l'aide d'outils flexibles qui prennent en compte les singularités des cas pratiques.
Source : Éditeur (via Cairn.info)
Résumé anglais We propose a self-regulatory tool for AI design that integrates societal metrics such as fairness, interpretability, and privacy. To do so, we create an interface that allows data scientists to visually choose the Machine Learning (ML) algorithm that best fits the AI designers' ethical preferences. Using a Design Science methodology, we test the artifact on data scientist users and show that the interface is easy to use, gives a better understanding of the ethical issues of AI, generates debate, makes the algorithms more ethical, and is operational for decision-making. Our first contribution is to build a bottom-up AI regulation tool that integrates not only users' ethical preferences, but also the singularities of the practical case learned by the algorithm. The method is independent of ML use cases and ML learning procedures. Our second contribution is to show that data scientists can select freely to sacrifice some performance to reach more ethical algorithms if they use appropriate regulatory tools. We then provide the conditions under which this technical and self-regulatory approach can fail. This paper shows how it is possible to bridge the gap between theories and practices in AI Ethics using flexible and bottom-up tools.
Source : Éditeur (via Cairn.info)
Article en ligne https://www.cairn.info/article.php?ID_ARTICLE=VSE_216_0288 (accès réservé)