Contenu du sommaire : Machines prédictives

Revue Réseaux (communication - technologie - société) Mir@bel
Numéro vol. 36, no 211, septembre-octobre 2018
Titre du numéro Machines prédictives
Texte intégral en ligne Accessible sur l'internet
  • Introduction

  • Dossier : Machines prédictives

    • La prédiction algorithmique comme activité sociale - Tyler Reigeluth p. 35-67 accès libre avec résumé avec résumé en anglais
      À l'heure du machine learning les algorithmes sont de plus en plus observés et analysés en termes comportementaux. Plus encore, l'apprentissage algorithmique est généralement présenté comme l'automatisation du caractère prédictif de nos comportements. En se confrontant à ce problème, cette proposition met en lumière son arrière-fond cybernétique tout en proposant une alternative à la fois épistémologique et sociale qui passe par une réactivation de la philosophie de Gilbert Simondon. Il s'agira plus particulièrement de penser l'apprentissage algorithmique à l'aune de sa théorie du cycle de l'image, et ce afin d'élaborer un cadre conceptuel à partir duquel il est possible de problématiser celui-ci comme une activité sociale au sein de laquelle comportements machiniques et organiques, automatiques et inventifs ne se distribuent pas selon un partage ontologique préétabli, mais s'informent activement. Ce cadre nous permettra, en outre, de jeter les bases de nouvelles perspectives sociologiques sur l'apprentissage algorithmique.
      Algorithmic prediction as a social activity
      In the era of machine learning, algorithms are increasingly studied and analysed in behavioural terms. Algorithmic learning is generally presented as the automation of the predictive nature of our behaviour. Examining this trend, this paper highlights its cybernetic underpinnings and proposes an epistemological and social alternative that revives Gilbert Simondon's philosophy. More specifically, it conceptualizes algorithmic learning through the prism of his image cycle theory, in order to develop a conceptual framework for analysing algorithmic learning as a social activity within which machine and organic, automatic and inventive behaviours are not distributed according to a pre-established ontological split, but are actively informed. This framework also lays the foundations for new sociological perspectives on algorithmic learning.
    • Comment décrire les technologies d'apprentissage artificiel ? : Le cas des machines à prédire - Jean-Sébastien Vayre p. 69-104 accès libre avec résumé avec résumé en anglais
      Aujourd'hui, nous sommes tous conduits à produire quotidiennement de grandes quantités de données numériques. Du point de vue des acteurs socioéconomiques, la valeur de ces données souvent qualifiées de massives réside essentiellement dans leur capacité à autoriser une meilleure domestication du futur. Pour ce faire, de nombreux professionnels conçoivent un arsenal de machines qui ont pour fonction de prédire l'avenir. Dans cet article, nous proposons d'étudier les discours des concepteurs afin de dégager différents outils de description de la fabrication de ces machines. Notre objectif est ainsi de permettre l'identification et la compréhension des normativités que recouvre leur développement au sein des organisations.
      How to describe machine-learning technology?
      In today's world we are all producing large amounts of digital data daily. From socioeconomic actors' perspective, the value of these data, often referred to as big data, essentially lies in the greater domestication of the future that they afford. To this end, a wide range of machines have been designed by specialists in different domains, with the purpose of predicting the future. In this article, we study the designers' discourses in order to identify different tools for describing the manufacturing of these machines. Our aim is to thus be able to identify and understand the forms of normativity underlying these machines' development within organizations.
    • Abstraction, expropriation, anticipation : Note généalogique sur les visions machiniques de la gestualité - Fernanda Bruno, Maurício Lissovsky, Icaro Ferraz Vidal Junior p. 105-135 accès libre avec résumé avec résumé en anglais
      L'article propose une généalogie des visions machiniques de la gestualité, commençant par la reproductibilité technique de l'image, et arrivant aux machines prédictives contemporaines. Le texte est structuré en trois parties. La première décrit comment la reproductibilité technique de l'image – photographique et cinématographique – est mise au service de la réplication du geste, de son abstraction et de son expropriation dans plusieurs domaines (sécurité et autodéfense, science, art et industrie). La deuxième partie montre que la matrice du modèle technique contemporain, visant la prédiction des comportements, était déjà partiellement définie par la cybernétique. Finalement, la dernière partie analyse les dispositifs de vision par ordinateur et les caméras intelligentes basées sur la détection automatisée de gestes et de mouvements envisageant la prédiction et le contrôle de la conduite. Ce parcours généalogique met en évidence deux vecteurs de transformation. Le premier est une progressive abstraction et expropriation des gestes par l'image technique. Le second est un effacement relatif de l'identité et de la subjectivité lorsque le biais prédictif de l'image technique est renforcé. Surtout dans le domaine de la sécurité et de la surveillance, la dimension prédictive se renforce en s'éloignant du paradigme de l'identification qui est dominant dans la modernité.
      Abstraction, expropriation, anticipation
      The article traces a genealogy of automatic vision of gestuality, from the technical reproducibility of images, to contemporary predictive machines. The text is organized into three parts. The first part describes how the technical reproducibility of images – both photographic and cinematographic – came to be used to replicate gestures, to abstract them and to expropriate them in several fields (security and self-defence, science, art and industry). The second part shows that the matrix of the contemporary technical model, aimed at predicting behaviour, is already partially defined by cybernetics. Finally, the last part analyses computer-assisted vision devices and smart cameras using the automated detection of gestures and movements to predict and control driving. This genealogical outline highlights two vectors of transformation. The first is a gradual abstraction and expropriation of gestures through technical imaging. The second is a relative erasure of identity and subjectivity when the predictive bias of technical imaging is reinforced. Moving away from the identification paradigm that prevails in modernity, particularly in the field of security and surveillance, strengthens the predictive dimension.
    • Le deep learning au service de la prédiction de l'orientation sexuelle dans l'espace public : Déconstruction d'une alerte ambiguë - Nicolas Baya-Laffite, Boris Beaude, Jérémie Garrigues p. 137-172 accès libre avec résumé avec résumé en anglais
      L'alerte lancée en septembre 2017 à propos d'un algorithme susceptible de prédire l'orientation sexuelle des individus questionne le statut des « machines prédictives » et le rôle des sciences sociales dans de telles circonstances. Entre la revendication d'un retour à la physiognomonie à l'heure du deep learning, l'explication des performances à partir d'une théorie « biologisante » des origines de l'orientation sexuelle et l'annonce de la fin de la vie privée, cette recherche, menée sous la direction de Michal Kosinski, professeur de psychologie à Stanford, engage à ne pas laisser un tel débat au seul registre de l'éthique. Dans cet article, nous proposons d'interroger la pertinence de l'alerte lancée par Kosinski au regard de la controverse qu'elle a suscitée, tant elle se révèle pertinente pour examiner l'entrée des algorithmes prédictifs dans le débat public. Nous questionnons l'ambiguïté du statut de « lanceur d'alerte » que les auteurs assument pourtant explicitement, car l'examen critique de leur modèle prédictif révèle finalement son inaptitude à démontrer les origines hormonales prénatales de l'orientation sexuelle et à distinguer les orientations sexuelles des personnes dans l'espace public.
      Deep learning to predict sexual orientation in the public space
      In September 2017 the alarm was raised about an algorithm that could predict people's sexual orientation, thus calling into question the status of “predictive machines” and the role of social science in such circumstances. Between claims of a return to physiognomy in the era of deep learning, its explanation of performance drawing on a “biologizing” theory of the origins of sexual orientation, and its announcement of the end of private life, this research – headed by Stanford psychology professor Michal Kosinski – calls for not allowing the debate to revolve solely around ethics. This article examines the relevance of the alert raised by Kosinski in light of the pivotal controversy it sparked on predictive algorithms entering public debate. This article highlights the ambiguity of the “whistleblower” status that the authors explicitly assumed, showing that a critical examination of their predictive model ultimately reveals its inability to demonstrate the prenatal hormonal origins of sexual orientation and to distinguish the sexual orientations of individuals in the public space.
    • La revanche des neurones : L'invention des machines inductives et la controverse de l'intelligence artificielle - Dominique Cardon, Jean-Philippe Cointet, Antoine Mazières p. 173-220 accès libre avec résumé avec résumé en anglais
      Depuis 2010, les techniques prédictives basées sur l'apprentissage artificiel (machine learning), et plus spécifiquement des réseaux de neurones (deep learning), réalisent des prouesses spectaculaires dans les domaines de la reconnaissance d'image ou de la traduction automatique, sous l'égide du terme d'“Intelligence artificielle”. Or l'appartenance de ces techniques à ce domaine de recherche n'a pas toujours été de soi. Dans l'histoire tumultueuse de l'IA, les techniques d'apprentissage utilisant des réseaux de neurones – que l'on qualifie de “connexionnistes” – ont même longtemps été moquées et ostracisées par le courant dit “symbolique”. Cet article propose de retracer l'histoire de l'Intelligence artificielle au prisme de la tension entre ces deux approches, symbolique et connexionniste. Dans une perspective d'histoire sociale des sciences et des techniques, il s'attache à mettre en évidence la manière dont les chercheurs, s'appuyant sur l'arrivée de données massives et la démultiplication des capacités de calcul, ont entrepris de reformuler le projet de l'IA symbolique en renouant avec l'esprit des machines adaptatives et inductives de l'époque de la cybernétique.
      Neurons spike back
      Since 2010, machine-learning-based predictive techniques, and more specifically deep learning neural networks, have achieved spectacular performances in the fields of image recognition and automatic translation, under the umbrella term of “Artificial Intelligence” (AI). But their relation to this field of research is not straightforward. In the tumultuous history of AI, learning techniques using so-called “connectionist” neural networks have long been mocked and ostracized by the “symbolic” movement. This article retraces the history of artificial intelligence through the lens of the tension between symbolic and connectionist approaches. From a social history of science and technology perspective, it highlights how researchers, relying on the availability of massive data and the multiplication of computing power, have undertaken to reformulate the symbolic AI project by reviving the spirit of adaptive and inductive machines dating back from the era of cybernetics.
    • Quand prédire, c'est gérer : La police prédictive aux États-Unis - Bilel Benbouzid p. 221-256 accès libre avec résumé avec résumé en anglais
      Dans cet article, nous rentrons dans les détails du contenu des applications numériques de la police prédictive. Les machines prédictives sont des technologies morales de gouvernement. Elles servent non seulement à prédire où et quand les crimes sont susceptibles d'avoir lieu, mais aussi à réguler le travail de la police. Elles calculent des rapports d'équivalence, en distribuant de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. En retraçant les origines de la police prédictive dans le système du Compstat, nous observons le passage de machines à explorer des intuitions (le policier garde la main sur la machine) à des applications qui font disparaître la dimension réflexive de la proactivité, faisant de la prédiction le support de métriques de « dosage » de la quantité du travail de la police. Nous voyons enfin comment sous l'effet d'un mouvement critique dénonçant les biais discriminatoires des machines prédictives, les développeurs imaginent les techniques d'audit des données des bases d'apprentissage et les calculs de la quantité raisonnable de contrôle policier dans la population.
      When to predict is to manage
      This article offers a detailed examination of the content of predictive policing applications. Predictive machines are moral technologies for government. They serve not only to predict when and where crime is likely to occur, but also to regulate police work. They calculate equivalence ratios, distributing security across the territory based on multiple cost and social justice criteria. Tracing the origins of predictive policing in the Compstat system, this article studies the shift from machines to explore intuitions (where police officers still have control over the machine) to applications removing the reflexive dimension of proactivity, thus turning prediction into the medium for “dosage” metrics of police work quantities. Finally, the article discusses how, driven by a critical movement denouncing the discriminatory biases of predictive machines, developers have come up with techniques to audit training datasets and ways to calculate the reasonable amount of stop-and-frisk over the population.
    • Grandeur et décadence de l'« édition prédictive » : Retour sur l'intégration manquée d'une « machine prédictive » au sein d'une maison d'édition - Vincent Bullich p. 257-290 accès libre avec résumé avec résumé en anglais
      Cette monographie répond à deux objectifs. Le premier est de présenter les modalités d'intégration d'un dispositif « prédictif » au sein du processus éditorial d'une maison d'édition « alternative ». Celle-ci a en effet pour ambition une publication continument élevée de textes courts en partie sélectionnés grâce à un « algorithme » permettant une automatisation de la stylométrie (analyse des composantes syntaxiques, lexicales et sémantiques d'un texte) et doté des capacités d'apprentissage automatique. Bien que se révélant être un adjuvant efficace (même si perfectible), le dispositif est laissé de côté quelques années après son développement au profit d'un mode de sélection des manuscrits beaucoup plus traditionnel. Le second objectif de l'article est par conséquent d'apporter des éléments de compréhension de cette désaffection : ceux-ci sont à chercher moins du côté de la machine que des « valeurs » et représentations sociales que les différentes parties prenantes vont lui associer.
      The grandeur and decadence of “predictive publishing”The aim of this monograph is twofold. First, it presents the modalities of integrating a “predictive” device into the editorial process of an “alternative” publishing house. This particular firm sought to publish continuously high volumes of short texts, partly selected by means of an “algorithm” that automated stylometry (the analysis of the syntactic, lexical and semantic components of a text) and was equipped with automatic learning capabilities. Though it proved to be a useful addition (albeit it one that could still be improved), the system was discontinued a few years after it was developed, to return to a much more traditional method of manuscript selection. The second aim of the article is thus to help understand the reasons for this reversal, which related not so much to the machine itself as to the “values” and social representations with which the various stakeholders associated it.