Chaire Francqui

Antoinette Rouvroy : « Les algorithmes ne sont pas l’ennemi. Le vrai problème réside dans notre paresse à nous gouverner »


Ce jeudi 5 mars avait lieu la leçon inaugurale d’Antoinette Rouvroy, titulaire de la Chaire Francqui, docteure en science juridique et chercheuse qualifiée au FNRS. À cette occasion, elle a présenté ses recherches actuelles et passionnantes sur la montée en puissance des algorithmes.

« Ce qu’on appelle aujourd’hui la tyrannie des algorithmes, cette désignation des algorithmes et de ceux qui les produisent comme l’ennemi relève d’une sorte de déterminisme technologique. Ils ont bon dos les algorithmes ! Le vrai problème ne réside pas dans les machines, mais dans notre propre paresse à nous gouverner et dans notre engouement à leur déléguer la prise de décision. » C’est par cette entrée en matière sans concessions qu’Antoinette Rouvroy a entamé sa leçon inaugurale.

Impossible de résumer en un article l’ensemble des points abordés lors de cette leçon particulièrement dense. Nous nous contenterons donc vous proposer une sélection arbitraire de passages qui nous ont semblé particulièrement intéressants.

La gouvernementalité algorithmique, une sorte de dystopie

« Par gouvernementalité algorithmique, je désigne une sorte de rêve, d’utopie ou de dystopie, partiellement réalisée » explique Antoinette Rouvroy.

Dans cette dystopie, digne de la série Black Mirror, la prise de décision est entièrement déléguée aux machines. Pour gouverner, ces dernières ne se basent plus sur des normes sociales ou juridiques, mais sur des données numériques. Non pas ces données personnelles dont on nous rabâche les oreilles, mais des données numériques brutes, totalement décontextualisées, désindexées, « rendues amnésiques de leurs conditions de production » et mises en corrélation pour établir des « patterns » (des modèles).

Pour donner un exemple concret, il s’agirait d’un monde où la décision de remettre un individu en liberté conditionnelle ne serait plus prise par un juge, mais par une machine, sur base de correspondances entre la situation qui lui est présentée et les décisions prises par le passé dans des cas similaires.

Du signe au signal, un basculement de civilisation

Pour Antoinette Rouvroy, notre civilisation est en passe de basculer d’un modèle basé sur le signe interprétable (le texte) vers un modèle basé sur le pur signal (la donnée). « Pour une juriste comme moi, c’est relativement bouleversant », constate-t-elle. « Car le droit ne nous paraît rien d’autre, quand on l’étudie, qu’une longue et lente sédimentation de textes dans un langage humain, éminemment signifiant, flou et incalculable ».

Concrètement, elle s’attache à étudier les conséquences de ce basculement sur trois éléments :

  1. Notre rapport au réel, à la vérité ;
  2. Notre rapport aux pratiques du pouvoir ;
  3. Notre rapport à l’existence, ce passage d’individus à des « dividus », c’est-à-dire à des sujets hyper fragmentés, réduits à n’être que des agrégats de données numériques.

S’éloigner de l’AI Ethics

Alors qu’un certain nombre de juristes focalisent leurs recherches sur l’optimisation des algorithmes en vue de les rendre FAT (fair, accountable, transparent), Antoinette Rouvroy s’écarte volontairement de ce qu’on appelle l’AI Ethics : « Il s’agit pour moi d’un raisonnement extrêmement problématique car ce qui compte pour la société, ce n’est pas que les systèmes techniques soient justes, accountable, transparents. Pour le justiciable, ce qui compte, c’est que la décision prise à son égard soit juste. »

Or, note-t-elle, si l’on accepte l’idée qu’il soit théoriquement possible de produire des algorithmes parfaits, qui cochent toutes les cases de l’éthique, pourquoi encore faire appel à un juge ? À ses yeux, la justice est totalement inconciliable avec l’algorithme. « Un algorithme fonctionne sur une règle d’optimisation. Pour optimiser, il métabolise les données du passé, détecte des corrélations, établit des patterns. Pour l’algorithme, la justice a toujours déjà été rendue. La justice est une affaire du passé. Pour le juge, c’est exactement l’inverse ! Il sait très bien que la loi est injuste. Il sait parfaitement que son jugement ne sera jamais qu’une approximation d’un idéal inatteignable. Pour lui, la justice est toujours à venir, elle n’est jamais présente, elle n’est jamais dans l’échu. »

Une crise de la représentation

De quoi notre engouement pour l’intelligence artificielle est-il le symptôme ? Antoinette Rouvroy pose l’hypothèse d’une crise de la représentation. « J’entends cela dans un sens tout à fait radical, littéralement sémiotique. Aujourd’hui, nous ne voulons plus du tout de la représentation, nous n’acceptons plus ce retard des représentations du monde sur le monde : nous voulons que le monde parle de lui-même. »

Et il n’est pas uniquement question de volonté. Nous sommes également confrontés à l’incapacité pure et simple de nous représenter ce nouveau territoire numérique totalement étranger. « En 2025, d’après certaines prospectives, l’univers numérique pèsera 44 000 milliards de gigaoctets. Qu’est-ce que cela veut dire concrètement ? Nous sommes incapables de nous le représenter. »

Elle constate également l’apparition d’une nouvelle pathologie, qu’elle appelle « signose ». « Nous avons tendance à prendre le signal pour la chose », explique-t-elle. Un exemple ? Les notations que nous attribuons, sur Internet, à des expériences de la vie réelle : un trajet en Uber, une nuitée dans un hôtel, un repas au restaurant… Ces notations prennent le pas sur notre véritable expérience de la chose comme dans le cas de ce restaurant fictif, créé par un journaliste londonien, classé premier restaurant de Londres sur TripAdvisor grâce à de fausses notations. Avec des amis, il décide de prolonger l’expérience en acceptant des réservations pour une soirée. Les clients repartent enchantés de l’expérience, sans réaliser qu’on leur a servi des plats surgelés bon marché et que le restaurant en question n’est qu’une cabane dans un jardin de banlieue…

Envie d’aller plus loin ?

Antoinette Rouvroy donnera cinq autres leçons dans notre Faculté dans les prochaines semaines. Consultez ici la liste.

Partagez cette news