Contenu de l'article

Titre L'agentivité algorithmique, fiction futuriste ou impératif de justice procédurale ? : Réflexions sur l'avenir du régime de responsabilité du fait de produits défectueux dans l'Union européenne
Auteur Ljupcho Grozdanovski
Mir@bel Revue Réseaux (communication - technologie - société)
Numéro no 232-233, mars-juin 2022 Contrôler l'intelligence artificielle ?
Rubrique / Thématique
Dossier : Contrôler l'intelligence artificielle ?
Page 99-127
Résumé Cette étude examine si un niveau élevé de protection juridictionnelle peut être garanti dans des cas de dommages résultant de décisions autonomes et opaques, prises par des systèmes de Machine Learning (ML). Analysant les moyens procéduraux offerts par la directive dite ‘produits défectueux', cette étude fait deux propositions majeures. D'abord, que pour la preuve de la responsabilité de fait (accountability), soit appliquée la logique de responsabilité pour faute, laissant aux programmeurs, utilisateurs et déployeurs de systèmes ML la possibilité de réfuter la présomption d'agentivité humaine, en démontrant que la faute pour un dommage donné doit être placée sur un algorithme ayant agi seul. Ensuite, s'agissant de la réparation d'un dommage algorithmique (liability), il est proposé que l'obligation de réparation soit attribuée suivant une logique d'acceptation de risques, pour les systèmes ML à ‘haut risque' de préjudicie, ou une logique de force majeure, pour tout dommage algorithmique non encore survenu en pratique.
Source : Éditeur (via Cairn.info)
Résumé anglais This study examines if and how a high standard of judicial protection can apply to litigants in cases dealing with harm caused by autonomous and opaque decisions made by Machine Learning (ML) systems. Based on a critical analysis of the procedural means offered by the EU's Product Liability Directive (85/374), this study makes two normative claims. First, that a fault liability (rather than a strict liability) model should govern the evidence adducing and assessment, regarding the proof of accountability in cases of AI-related harm. This model appears to be more procedurally fair given that programmers, users and developers of ML systems would have the possibility to rebut the—currently irrefutable—presumption of human agency, by proving that in causing harm, an algorithm had acted alone. Second, the study argues that, for the purpose of compensating AI-related harm, two criteria should be applied: on the one hand, for ML systems presenting so-called notorious risks of harm (i.e. types of harm that have already occurred in practice), the duty of compensation should lie with the programmer, user or deployer who accepted the risk of such harm materializing. On the other hand, cases of harm that have not yet occurred in practice could qualify as force majeure and could, therefore, be compensated through insurance schemes set up for the purpose of not leaving victims without compensation, when it is plausibly proven that such a harm was authored by an ML system without any human intervention.
Source : Éditeur (via Cairn.info)
Article en ligne http://www.cairn.info/article.php?ID_ARTICLE=RES_232_0099