Chaire Francqui au titre belge

Webinaire du mardi 24 novembre 2020

Professeur Antoinette ROUVROY


Le 4e webinaire donné par le Professeur Antoinette ROUVROY et organisé dans le cadre de la Chaire Francqui au titre belge est en ligne.

Il s'est tenu le mardi 24 novembre 2020 sur le thème de Deciding like a machine? Fairness, accountability and transparency out of the (black) box: an art of combining human and algorithmic “biases”.

Cette quatrième leçon est consacrée aux enjeux de la “décision algorithmique” à tous les stades de l’administration de la justice (police et justice prédictive).  L’accent est mis, notamment, sur les manières très particulières suivant lesquelles les perspectives d’algorithmisation de la justice perturbent à la fois les prémisses épistémiques et la temporalité propre au droit occidental, en particulier dans les pays de droit civil. L’objectif de la leçon est de fournir quelques repères et critères pour une évaluation de la compatibilité des dispositifs algorithmiques avec certains principes fondamentaux du droit, et avec les modes d’énonciation et de véridiction propres à la pratique judiciaire. Comment articuler les dispositifs de police prédictive et le principe de la présomption d’innocence? Comment les systèmes d’intelligence artificielle peuvent-ils interagir/interférer avec les régimes d’administration des preuves? Quels seraient les impacts d’une “algorithmisation de la justice” en termes d’égalité d’opportunités, de prévention des discriminations, d’égalité d’accès à la justice, de droit au procès équitable?  Les nouvelles possibilités d’évaluation anticipative des décisions judiciaires risquent-t-elles de rendre des cabinets d’avocats plus “sélectifs” relativement aux personnes qu’ils acceptant de conseiller et de représenter? Comment paramétrer dans l’algorithme le poids relatif des différentes sources du droit impliquées dans le raisonnement judiciaire? L’’algorithmisation de la justice risqué-t-elle d’affecter l’indépendance des juges, ou leur capacité à justifier leurs décisions et la possibilité de les contester?

Sont également abordées en détail les vertus et limites des stratégies juridiques et techniques visant à prévenir et détecter les “biais” (discriminations algorithmiques), à satisfaire aux exigences de transparence et de justification des décisions (Fair, Accountable, Transparent Machine Learning, ou FAT algorithms).

vid-img-1
 iconeInfo Retrouvez les autres interventions ici

Contact Chaire Francqui au titre belge
Florence BREUWER

Partagez cette news