Contenu du sommaire : « Éthique de l'IA » : enquêtes de terrain
Revue | Réseaux (communication - technologie - société) |
---|---|
Numéro | no 240, juillet-septembre 2023 |
Titre du numéro | « Éthique de l'IA » : enquêtes de terrain |
Texte intégral en ligne | Accès réservé |
Présentation
- Enquêter sur l'« éthique de l'IA » - Valérie Beaudouin, Julia Velkovska p. 9-27
Dossier
- L'intelligence artificielle dans l'espace public : du domaine scientifique au problème public : Enquête sur un processus de publicisation controversé - Anne Bellon, Julia Velkovska p. 31-70 L'article analyse la publicisation de l'intelligence artificielle (IA) et sa constitution en problème public, sous l'étiquette « éthique de l'IA », du point de vue des discours et des acteurs circulants entre arènes médiatique, scientifique et politique. Pour saisir l'ampleur de cette dynamique d'ensemble, il prend un objet peu exploré, la mise en relation entre ces trois arènes, c'est-à-dire les mécanismes de circulation et de déformation des discours, les conflits de définition, et les reconfigurations qui en résultent pour le domaine et pour les modes d'existence publique de l'IA. Articulant des méthodes quantitatives et qualitatives, l'enquête s'appuie sur trois types de données issues des arènes médiatique, politique et scientifique françaises : un corpus d'articles de presse relatifs à l'IA couvrant une période de près de 20 ans (2000-2019) ; des entretiens auprès d'acteurs du débat public (scientifiques, journalistes, institutionnels) ; des rapports publics (2006-2019). Portée par l'augmentation de la puissance de calcul et la disponibilité de larges bases de données d'entraînement, la « vague de l'IA » dans l'espace public se produit à la faveur de facteurs convergents – technologiques, économiques, médiatiques et politiques – sans être le reflet d'une véritable « révolution scientifique », promue par les médias et les entreprises mais contestée dans les récits des chercheurs. L'article montre ainsi comment la vie publique de l'IA prend forme à la croisée de registres discursifs concurrents et souvent incommensurables. De plus, si les discours sur l'IA et son éthique sont très présents dans l'espace public et émergent comme un « problème public » devenu un enjeu de régulation, ils ne s'appuient pas véritablement sur un « public concerné » (Dewey, 2012) en dehors des sphères spécialisées, qui serait engagé dans un travail d'enquête et de mobilisations collectives. Ainsi, la dernière « vague de l'IA » et la montée en puissance des questions éthiques semblent plutôt marquer une économicisation avancée du domaine, de plus en plus soumis aux intérêts privés, face à laquelle chercheurs et politiques cherchent à se positionner.The article analyses the publicization of artificial intelligence (AI) and its framing as a public problem under the label ‘AI ethics', from the point of view of the discourses and actors circulating between the media, scientific, and political arenas. The authors investigate this process by considering a subject that has previously received little attention: the relationship between these three arenas, that is, the mechanisms of circulation and distortion of discourses, the conflicts over definitions, and the resulting reconfigurations for the field and for the modes of public existence of AI. Articulating quantitative and qualitative methods, the study is based on three types of data from the French media, political, and scientific arenas: a corpus of press articles pertaining to AI, covering a period of almost 20 years (2000-2019); interviews with participants in the public debate (scientists, journalists, institutions); and public reports (2006-2019). Driven by increased computing power and the availability of large training databases, the ‘AI wave' in the public sphere is the product of converging technological, economic, media and political factors, without reflecting any real ‘scientific revolution' promoted by the media and corporations but contested in researchers' discourse. The article shows how the public life of AI takes shape at the intersection of competing and often incommensurable discursive registers. Moreover, while discourses on AI and its ethics are ubiquitous in the public sphere where they are emerging as a ‘public problem' that has become a regulatory issue, outside of specialized spheres they do not really draw on a ‘concerned public' (Dewey, 2012) engaged in collective inquiry and mobilization. Therefore, the latest ‘AI wave' and the upsurge of ethical issues seem rather to mark an advanced economization of the field, increasingly subject to private interests, in relation to which researchers and politicians are seeking to position themselves.
- La prédiction du risque en justice pénale aux états-unis : l'affaire propublica-compas : L'éthique de l'IA en action - Valérie Beaudouin, Winston Maxwell p. 71-109 Un article publié par le média Pro Publica en 2016 considère que le logiciel Compas, utilisé aux États-Unis pour la prédiction de la récidive, porte préjudice à la population noire : « It's biased against blacks ». La publication crée une onde de choc dans l'espace public et alimente les débats sur l'équité des algorithmes et sur le bien-fondé de ces outils de prédiction du risque. Ces débats étaient jusque-là confinés dans des sphères de spécialistes. En partant de l'affaire ProPublica-Compas, nous avons exploré les différents embranchements de la controverse dans l'arène des « data sciences » et dans celle du monde de la justice. Si, dans l'espace médiatique, l'affaire Compas illustre les dérives liées aux algorithmes et vient renforcer les inquiétudes autour de l'intelligence artificielle (peur du remplacement, du renforcement des inégalités et de l'opacité), dans le monde académique deux arènes s'emparent de l'affaire. Dans l'arène des data sciences, les chercheurs discutent des critères d'équité et de leur incompatibilité, montrant à quel point la traduction d'un principe moral en indicateurs statistiques est problématique. Ils débattent également de la supériorité supposée de la machine sur l'homme dans les tâches de prédiction. Dans l'arène de la justice pénale, espace beaucoup plus hétérogène, l'affaire ProPublica-Compas renforce la prise de conscience qu'il est nécessaire de mieux évaluer les outils avant de les utiliser, de comprendre comment les juges s'approprient ces outils en contexte et amène les ONG qui défendent les prisonniers et les législateurs à changer de posture par rapport à ces outils de prédiction. Tandis que l'arène des data sciences fonctionne dans un entre-soi disciplinaire, focalisé sur les données et les algorithmes hors contexte, dans l'arène juridique, qui assemble des acteurs hétérogènes, la question de l'inscription des outils dans la pratique professionnelle occupe une place centrale.An article published by the independent non-profit news media Pro Publica in 2016 argued that Compas software, used in the United States to predict recidivism, was ‘biased against blacks'. The publication sent shockwaves through the public sphere, fuelling broad debate on the fairness of algorithms and the merits of risk prediction tools – debates that had previously been limited to specialists in criminal justice. Starting with the ProPublica-Compas case, we explore the various facets of this controversy, both in the world of data science and in the world of criminal justice. In the media sphere, the Compas affair brought to the surface the potential abuses associated with algorithms, and it intensified concerns surrounding artificial intelligence (fear of AI replacing human judgment, worsening of inequalities and opacity). In the academic world, the subject was pursued in two separate arenas. First, in the arena of data sciences, researchers focused on two issues: fairness criteria and their mutual incompatibility, showing just how problematic it is to translate a moral principle into statistical indicators; and the supposed superiority of machines over humans in prediction tasks. In the criminal justice arena, which is much more heterogeneous, the ProPublica-Compas case strengthened the realization that it is necessary to evaluate predictive tools more thoroughly before using them, and to understand how judges use these tools in context, causing lawmakers and NGOs defending prisoners' rights to modify their viewpoint on the matter. While the data science arena is relatively self-contained, focusing on data and algorithms out of their operational context, the criminal justice arena, which brings together heterogeneous actors, focuses on the tools' actual usage in the criminal justice process.
- « Mais l'algo, là, il va mimer nos erreurs ! » : Contraintes et effets de l'annotation des données d'entraînement d'une IA - Camille Girard-Chanudet p. 111-144 Les techniques d'apprentissage automatique traitent algorithmiquement des données fournies en entrée. Celles-ci font, au préalable, l'objet d'un travail d'annotation manuelle visant à en identifier les éléments saillants à des fins d'entraînement des modèles. Fastidieux et souvent déconsidéré, ce travail du clic façonne pourtant une « vérité » de référence pour l'IA, qui conditionne en grande partie les résultats produits. Cet article étudie les modalités d'exécution de ce travail et ses effets à partir de l'étude du cas de la conception d'un outil d'anonymisation automatique des décisions de justice au sein de la Cour de cassation. Enquête ethnographique et par entretiens permettent de mettre en évidence la pluralité des compétences mobilisées par les acteurs chargés de l'annotation des données. L'article montre l'importance des systèmes représentationnels et moraux dans la mise en œuvre de cette activité, et donc, pour le fonctionnement de l'IA.Machine learning techniques algorithmically process input data which are then manually annotated to identify their salient features for model training purposes. This click work, while tedious and often unacknowledged, actually shapes a reference ‘truth' for the AI, which in turn largely determines the results. This article examines the ways in which this work is carried out and its effects, based on a case study of the design of a tool for the automatic anonymization of court decisions at the Cour de Cassation (French Supreme Court). An ethnographic and interview survey highlights the plurality of skills implemented by the agents in charge of data annotation. The article shows the importance of representational and moral systems in the implementation of this activity, and therefore for the functioning of AI.
- L'émergence d'enjeux éthiques lors d'expérimentations de logiciels d'intelligence artificielle : Le cas de la radiologie - Gérald Gaglio, Alain Loute p. 145-178 Cet article croise les regards de la sociologie de l'innovation et de l'éthique des technologies. Il met en évidence la portée heuristique du concept d'expérimentation pour penser l'éthique de l'Intelligence Artificielle (IA), et ce dans le domaine de la radiologie. Plus précisément, nous mobilisons trois déclinaisons du concept d'expérimentation ( experiment in and with technology, tacit experiment) pour décrire et analyser quatre environnements de travail où des logiciels de détection à base d'IA (en sénologie et en traumatologie) sont testés. Nous soulignons les modalités d'appropriation (ou de rejet) de ces dispositifs mais aussi les préoccupations éthiques qui en résultent, en nous appuyant sur les dérivés du concept d'expérimentation susmentionnés. Cette éthique de l'IA renvoie à trois séries d'interrogations : la première porte sur le pilotage, le périmètre, l'apprentissage durant ces expérimentations et finalement sur le caractère (plus ou moins) démocratique de ces dernières ; la deuxième sur la justesse de ce que livrent ces logiciels et par conséquent les risques d'erreurs engendrés, dans le cadre d'une délégation (au moins partielle) du travail d'analyse à des algorithmes ; enfin, la troisième sur la qualité du service rendu et son équité, au sein du système de santé, ainsi que sur le contenu d'identités professionnelles. L'éthique de l'IA s'encastre alors dans des situations concrètes d'usage et s'incarne dans des univers professionnels, à la différence des éthiques « à principes » et « au futur ».This article brings together the perspectives of the sociology of innovation and the ethics of technology. It highlights the heuristic scope of the concept of experimentation for reflection on the ethics of Artificial Intelligence (AI), in the field of radiology. More specifically, we mobilize three types of experimentation (experiments in and with technology, and tacit experiments) to describe and analyse four work environments where AI-based detection software is tested in senology and traumatology. We highlight the ways in which these devices are appropriated (or rejected), as well as the resulting ethical concerns, drawing on the above-mentioned derivatives of the concept of experimentation. AI ethics raises three sets of questions: the first concerns the steering, scope and learning process of these experiments, and ultimately their (more or less) democratic nature; the second concerns the accuracy of what the software delivers, and consequently the risks of error involved, in a context where analytical work is delegated (at least partially) to algorithms; and the third concerns the quality of the service provided and its fairness, within the healthcare system, as well as the content of professional identities. AI ethics are thus embedded in concrete situations of use and embodied in professional worlds, unlike ‘principled' and ‘future' ethics.
- Le principe d'explicabilité de l'IA et son application dans les organisations - Louis Vuarin, Véronique Steyer p. 179-210 L'Explicabilité de l'Intelligence Artificielle (IA) est citée par la littérature comme un pilier de l'éthique de l'IA. Mais rares sont les études qui explorent sa réalité organisationnelle. Cette étude propose de remédier à ce manque, à travers des interviews d'acteurs en charge de concevoir et déployer des IA au sein de 17 organisations. Nos résultats mettent en lumière la substitution massive de l'explicabilité par la mise en avant d'indicateurs de performance ; la substitution de l'exigence de compréhension par une exigence d'accountability (rendre des comptes) ; et la place ambiguë des experts métiers au sein des processus de conception, mobilisés pour valider l'apparente cohérence d'algorithmes « boîtes noires » plutôt que pour les ouvrir et les comprendre. Dans la pratique organisationnelle, l'explicabilité apparaît alors comme suffisamment indéfinie pour faire coïncider des injonctions contradictoires. Comparant les prescriptions de la littérature et les pratiques sur le terrain, nous discutons du risque de cristallisation de ces problématiques organisationnelles via la standardisation des outils de gestion utilisés dans le cadre de (ou à la place de) l'effort d'explicabilité des IA.The explainability of Artificial Intelligence (AI) is cited in the literature as a pillar of AI ethics, yet few studies explore its organizational reality. This study proposes to remedy this shortcoming, based on interviews with actors in charge of designing and implementing AI in 17 organizations. Our results highlight: the massive substitution of explainability by the emphasis on performance indicators; the substitution of the requirement of understanding by a requirement of accountability; and the ambiguous place of industry experts within design processes, where they are employed to validate the apparent coherence of ‘black-box' algorithms rather than to open and understand them. In organizational practice, explainability thus appears sufficiently undefined to reconcile contradictory injunctions. Comparing prescriptions in the literature and practices in the field, we discuss the risk of crystallizing these organizational issues via the standardization of management tools used as part of (or instead of) AI explainability.
- L'intelligence artificielle dans l'espace public : du domaine scientifique au problème public : Enquête sur un processus de publicisation controversé - Anne Bellon, Julia Velkovska p. 31-70
Varia
- Internet non marchand et division du travail militant : Une comparaison France-Allemagne depuis les « coulisses » des infrastructures - Aube Richebourg p. 213-240 Les collectifs qui défendent l'existence d'un internet alternatif et non marchand sont souvent présentés par les sciences sociales comme marginaux et inaudibles (Hintz et Milan, 2009 ; Alexandre et al., 2022). Certes les fournisseurs d'accès à internet (FAI) associatifs demeurent relativement invisibles au niveau national en France, mais le Parlement allemand a reconnu au réseau libre Freifunk un statut d'utilité publique en 2020. Si l'internet non marchand est réservé à une élite compétente, comment expliquer que les destins des infrastructures libres puissent être différents ? Partant du programme d'« ethnographie des infrastructures » (Star, 1999) et d'une enquête auprès de FAI associatifs en France et en Allemagne, nous montrerons que les services alternatifs ont façonné un discours de résistance à l'égard de l'internet commercial qui est entré, dans une certaine mesure, en écho avec les politiques publiques. Nous analysons en particulier le rôle de la division du travail dans le succès de ces collectifs dont la mission porte autant sur la construction d'infrastructures de connexion que sur la formulation d'un discours de plaidoyer en leur faveur. L'accession à une reconnaissance d'utilité publique apparaît corrélée à une division du travail autour de ces deux missions, au sein d'institutions distinctes.The social sciences often present collectives advocating for an alternative, non-profit internet as marginal and inaudible (Hintz and Milan, 2009; Alexandre et al., 2022). Yet, whereas in France associative internet service providers (ISPs) are still relatively invisible nationally, in 2020 the German parliament recognized the free network Freifunk as being in the public interest. If the non-profit internet is reserved for a competent elite, how can we explain why the fates of free infrastructures differ so much? Based on the ‘ethnography of infrastructures' programme (Star, 1999) and a survey of associative ISPs in France and Germany, we show that alternative services have shaped a discourse of resistance to the commercial internet that, to some extent, has echoed public policy. In particular, we analyse the role of the division of labour in the success of these collectives, whose mission is as much to build connection infrastructures as to formulate a discourse of advocacy on their behalf. Achieving recognition as being in the public interest appears to be correlated with a division of labour around these two missions, within distinct institutions.
- Internet non marchand et division du travail militant : Une comparaison France-Allemagne depuis les « coulisses » des infrastructures - Aube Richebourg p. 213-240
Note de lecture
- Camille DUPUY et François SARFATI, Gouverner par l'emploi. Une histoire de l'École 42, Paris, Presses universitaires de France, 2022, 239 p. - Sophie Louey p. 243-247
- Josiane JOUËT, Numérique, féminisme et société, Paris, Presses des Mines, 2022, 266 p. - Dominique Pasquier p. 249-255
- Fabrice FLIPO, L'impératif de la sobriété numérique. L'enjeu des modes de vie, Paris, Éditions Matériologiques, 2020, 406 p. - Dylan Marivain p. 257-261
- Ksenia ERMOSHINA, Francesca MUSIANI, Concealing for Freedom: The Making of Encryption, Secure Messaging and Digital Liberties, Manchester, Mattering Press, 2022, 267 p. - Sylvain Besençon p. 263-267