22
mag'
Vu d’ailleurs... avec Antoinette Rouvroy
L’intelligence des données
nous apporte l’illusion d’une
rationalisation des décisions»
Docteure en sciences juridiques, chercheure qualifiée au Fonds national de la recherche scientifique
belge, rattachée au centre de recherches Information, droit et société de l’Université de Namur,
Antoinette Rouvroy se penche depuis plusieurs années sur la manière dont les Big Data et les algo-
rithmes affectent les conduites individuelles et collectives, apportant un regard aux confluences du
droit et de la philosophie.
Notre expérience numérique est aujourd’hui orientée
grâce aux algorithmes. Selon vous, à quels usages
néfastes pourrait mener ce que vous appelez la
gouvernementalité algorithmique?
Les algorithmes n’orientent pas uniquement l’expérience
numérique. Aux catégorisations conventionnelles, insti-
tutionnellement, culturellement ou politiquement éta-
blies à travers lesquelles on classe les individus se
substituent aujourd’hui des catégorisations beaucoup
plus opaques. Le profilage, c’est-à-dire faire des regrou-
pements de personnes, n’est pas nouveau. Mais dans les
usages classiques des statistiques, il s’agissait de caté-
gorisations qui étaient fondées sur des conventions de
quantifications. Dans les nouvelles pratiques statis-
tiques qui se développent relativement au
Big Data
, l’idée
est de prendre un maximum de données en compte, y
compris celles qu’on considérait comme du bruit
précédemment.
C’est ce qui confère à la gouvernementalité algorith-
mique une aura d’impartialité mais aussi ce qui la rend
aussi injustifiable (on ne peut plus
donner les raisons de catégoriser les
personnes) et injusticiable (aucune
action collective en justice ne peut
être intentée, pour par exemple dis-
crimination, sur la base de tel ou tel
critère, puisque justement ces critères disparaissent).
Les catégorisations apparaissent objectives, car n’étant
plus fondées sur quoique ce soit d’idéologiquement mar-
qué, ou biaisé par la subjectivité humaine. L’intelligence
des données nous apporte l’illusion d’une rationalisation
des décisions. C’est là ce qui m’inquiète le plus. Or cette
objectivité des algorithmes s’explique par leur indiffé-
rence à ce qui fait la singularité de chaque vie.
Vous dites aussi que la notion d’anonymat est
obsolète à l’heure des
Big Data
. Pour quelle raison?
Cette notion d’anonymat est importante pour les
régimes juridiques de la protection des données à carac-
tère personnel. En effet, c’est elle qui trace les contours
du champ d’application des régimes de protection des
données personnelles. Dans le contexte des
Big Data
, la
notion d’anonymat est devenue fictive et inopérante,
dans la mesure où il est impossible d’assurer que nos
données seront à coup sûr toujours anonymes quelles
que soient les techniques d’analyse utilisées à l’avenir.
Nous sommes face à un continuum de risques de réiden-
tification de données anonymes. L’anonymat absolue
n’existe plus.
Les systèmes de protection des
données sont donc inefficaces?
Que faire pour endiguer ce
phénomène?
Ils restent efficaces pour protéger
les données à caractère personnel ! Mais dans le
contexte spécifique des
Big Data
, et de développement
«
Avec les
Big Data
,
la notion d’anonymat
est devenue fictive
et inopérante
OK