L’avènement de la surveillance algorithmique de l’espace public #
— (…) d’ailleurs en général ils traversent au vert là, on voit qu’ils respectent bien.
— Ouais ouais, sinon on te met la photo sur grand écran, c’est la honte quoi.
— On essaie de traverser au rouge pour voir ?
— Ah non je fais pas ça moi, personne fait ça
— Si je traverse il va y avoir ma photo, c’est sympa ?
— Ah ben si tu veux essayer vas-y hein, pas moi.
— Qu’est-ce qui va se passer après ?
— Après, ta photo va s’afficher grand sur l’écran, ça va être un festival pour toi.
— Et là ils t’expliquent pas si on t’enlève des points ? pour l’instant c’est juste affiché ?
— Non, c’est juste affiché. C’est la grosse honte.
Narrateur: Pour garantir l’efficacité de ce contrôle permanent de l’espace public et des individus, un outil est indispensable : la caméra de surveillance. (1)Extrait de “Ma femme a du crédit” (S. Le Belzic, 2022)
Juliana : La notion de vidéosurveillance algorithmique est très proche de la notion de vidéosurveillance par ordinateur. En résumé, on rajoute un ordinateur entre la vidéo et le surveillant, et l’ordinateur devient le surveillant à la place de l’humain, parce que l’humain ne peut pas tout surveiller tout seul. La grande différence entre la vidéosurveillance lambda et la vidéosurveillance algorithmique (ou VSA) est l’augmentation des données vidéo avec des données externes.
Laurent : Très bien, mais qu’est-ce que tu entends exactement par données externes ?
Juliana : La base des données externes sont les algorithmes derrière la VSA, par exemple des algorithmes qui savent détecter une situation spécifique, telle qu’un corps qui passe de la verticale à l’horizontale ou alors un individu qui va dans la direction opposée dans une foule. Dans cet exemple, on utilise des algorithmes prêt à l’emploi, a priori ça suffit. (2)Interview accordée par Olivier Tesquet
Laurent : Ouais, ça paraît assez simple, mais n’existe t-il pas des algos plus sophistiqués aujourd’hui ?
Juliana : Oui, il y a plusieurs approches : celle que je viens de te décrire, c’est une approche rule-based, où chaque algorithme est taillé sur mesure pour la situation à détecter, mais les données qui servent à entraîner des algorithmes, c’est le même genre de données que récoltent les caméras. Donc on peut parfaitement imaginer qu’elles auto-apprennent, c’est ce qu’on appelle les behavior analytics. À force de filmer des situations 24h sur 24, la caméra apprend à reconnaître ce qui est la norme et ce qui dévie de la norme, les situations anormales par exemple, quelqu’un qui maraude ou un bagage abandonné.
Laurent : Donc les behaviors analytics, c’est de la Big Data, en gros.
Juliana : Oui voilà, comme les grands modèles de langage comme ChatGPT : plus ces algorithmes traitent de données, plus ils sont précis.
Laurent : Mais les algorithmes alors, ils pourraient prendre leurs données ailleurs, par exemple dans un fichier de police ou sur les réseaux sociaux, ils pourraient reconnaître les personnes filmées ?
Juliana : Ça, ça serait plutôt de la reconnaissance faciale, c’est différent parce que là il faut donner aux algorithmes le pouvoir d’identifier la personne filmée, on parle aussi de reconnaissance biométrique dans un sens plus large.
Laurent : C’est différent certes, mais c’est souvent confondu il me semble, parce qu’on a vu ensemble comment fonctionnaient les logiciels de VSA : pour activer la reconnaissance faciale, il suffit de cocher une case dans les paramètres (3)“La reconnaissance faciale n’est qu’une fonctionnalité à activer", avertit Katia Roux [chargée de plaidoyer chez Amnesty International].” (R. Houeix, Paris-2024 : les JO, cheval de Troie de la vidéosurveillance algorithmique ?, France 24, 24 mars 2023) . C’est ce que nous a expliqué le journaliste de Télérama Olivier Tesquet :
Ce qui s’est passé avec Briefcam est très emblématique de ça, très emblématique des dérives, et devrait à mon avis alerter tout ce qu’on compte encore en France comme garants du droit, notamment l’état de droit. On a tout un tas de gens qui ont acheté ce logiciel, qui compile des heures et des heures de vidéo pour en extraire les moments les plus saillants ; déjà, cette acquisition pouvait poser question au moment où elle a été réalisée, dans la mesure où le cadre légal n’existait pas, mais en plus de ça, on apprend que ce logiciel, il suffit d’appuyer sur un bouton, je schématise un peu, pour accéder à une fonctionnalité qui elle est illégale, et que non seulement la fonctionnalité existe mais qu’en plus elle a été utilisée. (4)Tesquet, op. cit.
Juliana : Moi ce que cela m’évoque, c’est que même si vidéosurveillance et reconnaissance biométrique sont deux méthodes différentes, dès que tu ajoutes un algorithme, tu facilites le passage de l’un à l’autre.
Laurent : Il y a des algorithmes en plus conçus exprès pour la reconnaissance biométrique, j’ai vu passer le terme d’ “IA physiognomonique” (5)C. Lequesne-Roth et J. Kellern, Surveiller les foules. Pour un encadrement des IA « physiognomoniques », Observatoire de l’éthique publique, 1er avril 2023 pour les désigner. Pour faire simple, c’est des algos d’identification.
Juliana : Ce que nous a dit Tesquet, c’est que la VSA sans biométrie, c’est un peu comme du coca sans bulles.
Laurent : Un peu comme le big data sans données personnelles. On pourrait croire que c’est la science-fiction quand même, tout ça ; ça m’air de demander beaucoup de moyens technologiques pour exister, d’ailleurs c’est ce que nous disait l’autre journaliste de Next que nous avons interrogé, Jean-Marc Manach.
Donc, y’a 19 millions de personnes qui sont défavorablement connues des services de police ; sur ces 19 millions de personnes, il y en a 6 millions qui ont des photos. Vous imaginez la puissance de calcul qu’il va falloir sur 6 millions ? Puis ensuite le nombre de faux positifs, parce que toutes les personnes qui ont leur photo dans le GASPARD (6)G.A.S.P.A.R.D., acronyme de “Gestion Automatisée des Signalements et des Photos Anthropométriques Répertoriées et Distribuables”, logiciel de saisie qui permet aux enquêteurs d’alimenter les fichiers de traitement automatisé des données personnelles des services de police , à partir du moment où elles seraient identifiées par les caméras de vidéosurveillance ? Mais c’est un travail absolument malade, c’est pas 90 000 policiers qu’il faudrait déployer pour les JO, ça marcherait pas. Pour 6 millions de personnes qui sont défavorablement connues des services de police, et là je parle que des Français ; si on commence à rajouter tous les gens qui sont dans les fichiers des autres pays… et donc, rajouter de la biométrie lors des JO pour moi techniquement et financièrement parlant, et humainement parlant, c’est juste pas gérable. (7)Interview accordée par Jean-Marc Manach
Juliana : Pourtant je trouve qu’on en est pas si loin, quand tu regardes ce qui est déjà possible de faire aujourd’hui avec son propre smartphone (8)“20 years ago, if you ate your dinner under an always-on CCTV, it was because you were in a supermax prison. Today, it’s because you bought a premium home surveillance system from Google, Amazon or Apple.” (C. Doctorow, Netflix wants to chop down your family tree, Pluralistic, 2 février 2023) . Par exemple avec Google Lens, ou alors les micros des smartphones qui nous enregistrent dans la vie de tous les jours afin de nous produire des pubs ciblées (9)J. Cox, Marketing Company Claims That It Actually Is Listening to Your Phone and Smart Speakers to Target Ads, 404media, 14 décembre 2023 .
Laurent : Mais alors si tout ça c’est possible techniquement, est-ce que au moins c’est légal ?
Juliana : Jusqu’à récemment non, enfin ça dépend. Il y a eu des usages de VSA autorisés, mais pour cela, il fallait faire une demande à la CNIL auparavant. La CNIL, qui parlait plutôt d’absence de cadre légal. Une autre expression, c’est celle de vide juridique qui vient cette fois-ci de notre ministre de l’intérieur, Gérald Darmanin, même si elle reste moins correcte, car il est rare d’avoir un vrai vide juridique dans la situation d’inflation législative de nos jours.
Laurent : Et puis de toute manière le vide juridique c’est plus un problème maintenant, il se trouve qu’on a une loi qui a été votée en mai 2023 : la loi des Jeux olympiques.
Juliana : Tout à fait. Depuis la loi JO, mais elle est seulement permise dans une approche rule-based, donc dans des situations spécifiques, ce qui est écrit dans l’article 10 de la loi et qui est précisé dans le décret d’application. (10)Loi n° 2023-380 du 19 mai 2023 relative aux Jeux olympiques et Paralympiques de 2024 et portant diverses autres dispositions
Laurent : Donc ça c’est un peu les gardes-fous.
Juliana : Oui, le Conseil constitutionnel a été saisi et il les a finalement jugés suffisants. (11)Décision n° 2023-850 DC du 17 mai 2023
Laurent : Mais du coup je m’interroge, un décret ça se change facilement, en tout cas plus facilement qu’une loi, ce serait pas un petit peu la porte ouverte pour qu’on rajoute d’autres cas de vidéosurveillance algorithmique ?
Juliana : Alors oui ça se change plus facilement qu’une loi mais cela reste rare, et en plus de ça la loi interdit explicitement la reconnaissance biométrique, donc si tu veux changer ça le décret ne suffira pas.
Laurent : Alors certes, maintenant ça me paraît quand même délicat de faire valoir ses droits dans ce contexte, parce que pour faire valoir des droits, pour pouvoir les opposer, tu as besoin d’être informé, et ça me paraît difficile de maintenir un devoir d’information pour préciser comment les gens sont filmés. (12)“Lors des expérimentations conduites au Royaume-Uni dans les espaces accessibles au public, les organisations non gouvernementales ont mis en évidence qu’en dépit des efforts des autorités, la signalétique était insuffisante pour permettre aux personnes concernées d’exercer leurs droits (alternative quand les expériences étaient fondées sur le consentement), et de comprendre les enjeux.” (C. Lequesne-Roth et J. Kellern, op. cit.) (13)“Par exemple, si le projet de loi sur les Jeux olympiques souligne que l’installation de caméras intelligentes doit certes donner lieu à une mesure d’information du public, cette information n’est plus nécessaire, en l’état actuel du texte, « lorsque les circonstances l’interdisent » ou lorsque l’information entre « en contradiction avec les buts poursuivis », sans que l’on sache très bien du reste à quoi font référence ces cas. Dans le même temps, si le droit à l’information n’est pas (toujours) assuré, qu’advient-il alors du droit d’accès à ces données, du droit de rectification ou d’effacement de celles-ci ? Toutes sortes de prérogatives qui dépendent de près ou de loin de la connaissance par les personnes d’une collecte de données” (S. Etoa, L’image et le son ? Le déploiement de la surveillance algorithmique dans l’espace public, Cahiers de la recherche sur les droits fondamentaux, 21 | 2023, 81-87.)
Juliana : Mais de toute façon, c’est déjà pratiqué de façon illégale par les autorités publiques en France. Par exemple dans la détection du port du masque dans les transports publics, ou même lors de l’analyse d’émotion qui a été essayée à Nice mais qui a échoué. (14)D’autres cas d’expérimentations qui ont été formellement interdites après avoir été testées sont listés dans la brochure Pas vue pas prise. Contre la vidéosurveillance, version 1, mai 2023, pasvuepasprise@riseup.net
Laurent : Et si tu me parles d’usages illégaux, tu vas me parler des révélations sur Briefcam qui ont éclaté en novembre dernier.
Juliana : Exactement, Briefcam qui est un logiciel de VSA, et comme on l’a vu, pour activer la reconnaissance faciale dans ce logiciel, il n’y avait qu’une case à cocher. On voit que la case ils l’ont bien cochée finalement. (15)M. Destal et al., La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale , Disclose, 14 novembre 2023
Laurent : C’est dingue parce que c’est les autorités publiques savaient que c’était illégal, ils l’ont quand même fait, j’ai l’impression qu’il y a une sorte de sentiment d’impunité. (16)“Moi j’ai en tête l’affaire que j’avais suivie sur la surveillance des manifestations par drone (…) le Conseil d’État avait de nouveau interdit [les drones floutants], ce qui n’a pas empêché la préfecture de récidiver, donc voyez, y’a un petit côté ils savent très bien que c’est illégal (…) ils ont un service juridique, la préfecture sait quand elle est hors-la-loi, elle le fait exprès (…) ils savent ce qu’ils font, ils savent que personne ne viendra leur taper sur les doigts” B. Bayart, Vidéosurveillance algorithmique : mais que fait la police ?, France Culture, 29 novembre 2023
Juliana : Et qui continue même après que ça sorte dans les médias. Le manque de communication de la part du ministère de l’intérieur par exemple après l’affaire Briefcam, ou même les journalistes qui ont continué d’être surveillés en Inde. (17)India: Damning new forensic investigation reveals repeated use of Pegasus spyware to target high-profile journalists Amnesty International, 28 décembre 2023, Amnesty International, 28 décembre 2023
Laurent : Mais pourquoi on veut faire ça alors, pourquoi il y a cette volonté d’installer des outils quitte à violer la loi ?
Juliana : Parce que la vidéosurveillance est à la mode, il y a plein de nouveaux mots pour la désigner, par exemple la vidéoprotection, la vidéogestion, les smart cities.
Laurent : Alors la vidéoprotection OK, je vois ce que c’est, c’est un euphémisme qui est plutôt à la mode, mais la vidéogestion là on n’est plus dans la protection.
Juliana : Exact, on y trouve plein d’usages nouveaux à ces caméras, quand tu as un marteau, tout ressemble à un clou.
Laurent : Ce que tu me décris là, j’ai l’impression que c’est du techno-solutionnisme, tu sais c’est quand tu crois qu’une technologie nouvelle va résoudre tous les problèmes juste parce qu’elle est nouvelle.
Juliana : Le problème c’est que les politiciens croient vraiment que ça marche, comme par exemple avec la vidéosurveillance ou ChatGPT.
Laurent : Et pourtant la vidéosurveillance ça ne marche pas. On le sait bien aujourd’hui les études le prouvent (18)G. Gormand, L’évaluation des politiques publiques de sécurité : résultats et enseignements de l’étude d’un programme de vidéosurveillance de la Ville de Montpellier, Droit, Université Grenoble Alpes, 2017. (19)N. Sulman, T. Sanocki et al., How effective is human video surveillance performance?, 2008 19th International Conference on Pattern Recognition, 11 décembre 2008 , et quand elles ne le prouvent pas les chercheurs se plaignent qu’on leur donne pas assez de données pour pouvoir faire des recherches là-dessus (20)“Un chercheur, Philippe Robert, écrivait en 2010 [dans un article de la revue Projet] qu’en France, l’évaluation de la vidéosurveillance était entravée au maximum par les décideurs publics nationaux et locaux. Treize ans plus tard, c’est encore le cas. De nombreux chercheurs aimeraient ou auraient aimé travailler sur cette thématique, mais ils n’ont jamais eu accès au terrain de manière favorable.” (G. Gormand, in Guillaume Gormand, chercheur : « Aujourd’hui, la plupart des systèmes de vidéosurveillance en France ne sont pas exploités », Le Monde, 02 janvier 2024) , donc dans le doute ça ne marche pas la vidéosurveillance.
Juliana : Oui la vidéosurveillance tout court, mais la vidéosurveillance algorithmique est justement présentée comme le moyen de “réparer” la vidéosurveillance, en disant que le défaut de la vidéosurveillance est l’humain : La vidéosurveillance sans les algorithmes est limitée par les capacités humaines, en l’automatisant, on est censé la rendre beaucoup plus efficace. (21)N. Sulman, T. Sanocki et al., op.cit. (22)“Il faut bien comprendre que la plupart des systèmes de vidéosurveillance en France aujourd’hui ne sont pas exploités : les caméras sont installées, les flux d’images sont enregistrés mais ils ne sont utilisés qu’a posteriori en cas d’infraction.” (G. Gormand, op. cit.)
Laurent : Certes, sauf si la VSA s’avère elle aussi inefficace, parce que non seulement les rapports parlementaires sur le sujet qu’on a consulté n’excluent pas cette possibilité (23)P. Gosselin et P. Latombe, Les enjeux de l’utilisation d’images de sécurité dans le domaine public dans une finalité de lutte contre l’insécurité, rapport d’information n°1089, déposé le 12 avril 2023 à l’Assemblée nationale et très récemment il y a eu des enquêtes sur les expériences menées à la SNCF (24)C. Le Foll, En prévision des JO, la SNCF a testé plus d’une dizaine d’algorithmes de vidéosurveillance, Mediapart, 25 décembre 2023 ou à l’étranger, la police de la Nouvelle-Orléans (25)A. NG, ‘Wholly ineffective and pretty obviously racist’: Inside New Orleans’ struggle with facial-recognition policing, Politico, 31 octobre 2023 , les résultats sont au mieux mitigés.
Juliana : Mais même si elle s’avèrent inefficace, on pourra la justifier à posteriori, il suffira que ça marche une seule fois, même après 999 échecs. (26)“Dans la rhétorique des gens qui préconisent leur usage, la force de ces dispositifs c’est qu’ils seront inutiles 999 fois, et la fois où ils seront utiles on sera bien content de de les avoir” (O. Tesquet, op. cit.) (27)““If we have it for 10 years and it only solves one crime, but there’s no abuse, then that’s a victory for the citizens of New Orleans,” said Green, who is Black and represents a majority Black district.” (A. NG, op. cit) Ce sont les gens qui réclament plus de surveillance. En l’espèce, la VSA pour les Jeux olympiques doit être plutôt vue comme un élément de réassurance pour l’opinion publique. (28)“Il y a une dizaine d’années, j’avais fait un papier où j’expliquais que les caméras de vidéosurveillance, ça sert à être élu. C’est-à-dire que vous promettez que si vous êtes élu, vous allez installer les caméras de vidéosurveillance, et donc ça rassure les gens, et donc les gens vont voter pour vous.” (J-M. Manach, op.cit.)
Ah bah je pense que c’est une excellente chose, tout simplement. Oui, ça ne me dérange pas. Ça ne peut déranger que les gens qui ont des choses à se reprocher à mon avis. C’est une bonne chose je pense, c’est grâce à cela que les pouvoirs publics ou la police peuvent attester que cela a résolu bien des situations qui n’auraient pas pu trouver une résolution à une certaine époque. (29)“Vidéosurveillance : doit-on en mettre partout ?” in Europe 1 13h, Europe 1, 29 septembre 2023
Laurent : Il y a Jean-Marc Manach qui nous avait répété sa phrase : “les caméras, ça sert à être élu”. Et quand il dit ça, j’ai l’impression qu’on observe un aller-retour entre les électeurs qui veulent des caméras, les élus qui leur promettent que ça marche, donc les électeurs qui les réclament et les élus qui leur promettent de les installer. C’est une sorte de croyance qui s’auto-alimente, un larsen, comme quand on met un micro devant un haut-parleur tu vois, en anglais ils appellent ça un feedback loop. C’est pas une simple métaphore, en plus, les feedback loops. Tout ce que tu me décris là, c’est qu’on a la technologie, on a la volonté politique, on a le cadre légal, donc je me demande avec tout ça, la VSA finalement, si ce n’est pas inévitable.
Juliana : Tu voudrais dire qu’on ne peut pas l’empêcher, c’est-à-dire que la VSA serait-elle inéluctable ?
Pour moi c’est c’est une question fondamentale, est-ce que le métier de la police est de surveiller tout le monde tout le temps pour s’assurer que personne ne fasse jamais rien, où est-ce que le métier de la police est de de répondre au troubles quand la société est troublée. Mais il faut d’abord que la société manifeste un trouble voyez-vous, l’idée qu’on va surveiller tout le monde pour pour s’assurer que tout le monde est sage tout le temps et ne lève jamais un sourcil, et cætera. (30)(Bayart, op. cit.)
Laurent : Tu vois ce dont parle Benjamin Bayart, là à l’instant, ça s’appelle la société de contrôle, c’est un concept bien connu en sociologie, c’est l’idée que la société toute entière converge vers un contrôle continu de ses éléments, partout où ils vont, pour moi c’est carrément dans l’air du temps. (31)“Dans une société démocratique, il ne devrait pas y avoir d’anonymat. On ne peut pas se promener encagoulé dans la rue.” (E. Macron in Emmanuel Macron : « L’Europe est plutôt dans un moment de dynamique », Le Point, 12 avril 2022)
Juliana : Sauf que Tesquet et Manach, quand on les a interrogés, il n’étaient pas d’accord sur le risque d’atteinte aux droits fondamentaux. Pour Manach, c’était une posture idéologique, ce que tu dis là.
Laurent : Certes, ils n’étaient pas d’accord, mais les deux étaient d’accord sur un point : quand ce genre de loi passe, c’est difficile de revenir en arrière, ça ils nous l’ont dit. (32)“[Les expérimentations] ça sert surtout à mettre le pied dans la porte, et la porte on la referme jamais ensuite, on l’ouvre en grand.” (O. Tesquet, op. cit.) (33)“Moi ce que je crains c’est qu’effectivement on rentre dans une sorte de fuite en avant, c’est pas que je le crains, c’est que là pour le coup, je le prédis. De toute façon, on est dans une fuite en avant, on reviendra jamais en arrière (…)” (J-M. Manach, op.cit.) Tu te rappelles, l’état d’urgence ?
Juliana : Oui tout à fait.
Laurent : Voilà, même les journalistes quand ils parlent de la VSA, ils parlent de “boîte de Pandore" (34)France Culture, op.cit. , c’est une expression qui a du sens, pour moi c’est un exemple parfait d’effet cliquet. (35)“Cela étant dit, et comme le souligne Winston Maxwell, il faut prendre gare à l’effet cliquet de ces technologies. En effet, il y a peu de chance une fois ces outils mis en place, les investissements réalisés et les personnels formés, de voir la puissance publique faire machine arrière à la fin de la période d’expérimentation. De sorte qu’il faut sans doute se résoudre à voir son usage se pérenniser dans l’espace public.” (S. Etoa, op.cit.) (36)“L’histoire récente des technologies témoigne de ces dérives : celles-ci induisent un biais d’acceptabilité, qui pourrait conduire à desserrer la contrainte réglementaire et institutionnaliser, in fine, des pratiques démocratiquement contestables.” (C. Lequesne-Roth et J. Kellern, op. cit.)
Juliana : Un peu comme Manach qui parle de la fuite en avant sécuritaire.
Laurent : Voilà, tu parlais tout à l’heure de l’impunité des pouvoirs publics qui n’attendent même pas que la VSA soit légale pour l’utiliser, c’est un problème qu’on a avec le droit et le numérique en général, le droit il arrive souvent après la guerre, tellement le numérique amplifie et accélère toutes les pratiques.
Juliana : Il y a un peu comme un effet fait accompli, comme avec les GAFAM et le RGPD…
Laurent : Tu sais ce que ça amplifie aussi le numérique ? La quantité de données. Les vidéos analysées maintenant, elles peuvent venir des caméras publiques, mais elles peuvent venir des caméras privées aussi (37)J. Cox, AI Cameras Took Over One Small American Town, Now They’re Everywhere, 404media, 2 novembre 2023 , elles peuvent venir des drones (38)C. Le Foll, JO 2024 : l’Intérieur réfléchit à équiper les drones d’algorithmes de surveillance, Mediapart, 17 novembre 2023 , elles peuvent venir des smartphones qu’on active à distance (39)A. Mestre, Loi justice : le Conseil constitutionnel censure l’activation à distance des téléphones portables pour la captation de sons et d’images, Le Monde, 16 novembre 2023 . Tout ça c’est non seulement possible techniquement, mais c’est en plus c’est pratiqué dans plein de pays. (40)K. Hao et H. Swart, South Africa’s private surveillance machine is fueling a digital apartheid (MIT Technology review), MIT Technology Review, 19 avril 2022
Juliana : Oui tu as une multiplication des moyens de surveillance électronique, on le voit bien dans les dictatures et dans les régimes autoritaires (41)À propos de la surveilance algorithmique dans divers pays, voir les cas de l’Ouganda et la Zambie (J. Parkinson, N. Bariyo et al., Huawei Technicians Helped African Governments Spy on Political Opponents, Wall Street Journal, 15 août 2019), la Libye et l’Égypte (D. Leloup, Après la Libye de Kadhafi, Amesys a vendu son système de surveillance à l’Egypte de Sissi, Le Monde, 05 juillet 2017) et le Qatar (Y. Philippin, Le pouvoir sarkozyste a fait livrer un système de surveillance de masse au Qatar, Mediapart, 11 octobre 2023) .
Laurent : Mais ce n’est pas que les régimes autoritaires. On a vu une étude qui a compté que la moitié des démocratie du globe déploie la surveillance algorithmique, et que la France en faisait partie (42)“Liberal democracies are major users of AI surveillance. The index shows that 51 percent of advanced democracies deploy AI surveillance systems. (…) Governments in full democracies are deploying a range of surveillance technology, from safe city platforms to facial recognition cameras. This does not inevitably mean that democracies are abusing these systems. The most important factor determining whether governments will deploy this technology for repressive purposes is the quality of their governance.” (Steven Feldstein, The Global Expansion of AI Surveillance, Fondation Carnegie pour la paix internationale, septembre 2019) .
Juliana : On voit bien que la police utilise déjà les réseaux sociaux pour trouver les fraudeurs du fisc, alors pourquoi pas demander aux algorithmes de chercher ailleurs ?
Laurent : Donc là on parlait d’amplifier les données vidéo, maintenant là tu me parles d’amplifier toutes les autres données à surveiller, si c’est pas les réseaux sociaux, donc les sources ouvertes en d’autres termes, ça peut être les fichiers de police (43)La brochure “Pas vue pas prise” donne l’exemple du logiciel “Map Revelation” de la société angevine SûretéGlobale.Org : “Ne constituant pas de la VSA à proprement dit, le logiciel est néanmoins conçu de sorte à pouvoir intégrer différents types de capteurs dont la vidéosurveillance et les alarmes au sein de ses cartes et interfaces. À Montpellier, la base de données provient à la fois de la police nationale (« vols de véhicule, cambriolages, vols à main armée…») et de la ville (« enquêtes de victimisation, interventions des services sociaux, remontées des bailleurs sociaux, …»).” sur lesquels on utilise déjà la reconnaissance faciale comme tu dis.
Juliana : Pour le droit c’est différent, mais pour un algorithme ça devient la même chose.
Laurent : Bah voilà tout ça fondamentalement c’est la même chose c’est de l’information, et la science de l’information c’est la cybernétique. Moi je vois une hypothèse cybernétique (44)“On conçoit qu’une société globale, un État, puissent se trouver régulés de telle sorte qu’ils soient protégés contre tous les accidents du devenir : tels qu’en eux-mêmes l’éternité les change. C’est l’idéal d’une société stable traduit par des mécanismes sociaux objectivement contrôlables” A. Moses, cité dans “L’hypothèse cybernétique” in Tiqqun, Organe de liaison au sein du Parti Imaginaire - Zone d’Opacité Offensive, Belles Lettres, 2001 là-dedans, je vois l’idée qu’en mettant toutes ces informations en réseau, on pourra tout contrôler. Gilles Deleuze, qui a beaucoup écrit sur la société du contrôle, il nous dit que « l’information, c’est exactement le système du contrôle ». (45)G. Deleuze, Qu’est-ce que l’acte de création ? in « Le monde diplomatique - Manière de voir » # 148, août - septembre 2016 Dans un monde cybernétique, les caméras contrôlent l’espace public, comme un thermostat contrôle la température.
Juliana : On dirait un peu le principe de la smart city, tu mets des capteurs partout et avec toutes ces informations, tu peux contrôler la ville comme dans un jeu vidéo.
Laurent : Voilà, et ça aussi c’est à la mode la smart city, c’est une promesse qui va plus loin que juste les caméras ou la délinquance, ce qu’on promet, c’est l’automatisation de la société pour régler tous ces problèmes.
Juliana : C’est un peu comme le techno-solutionnisme poussé à son extrême.
Laurent : Or en ajoutant des algos aux caméras, on les fait rejoindre un système au sens cybernétique. Ces caméras transmettent de l’information dans ce système qui va réagir à cette information, ça engendre une boucle de rétroaction.
Juliana : Un feedback loop, ce qui en soi est un pilier de la gouvernance des données…
Laurent : La gouvernance par les données !
Juliana : Et on est censé s’en inquiéter ? Après tout, Manach dit lui-même qu’on ne sait pas si les menaces pour les libertés sont constituées et ça peut avoir des avantages surtout pratique la smart city finalement.
Laurent : C’est vrai que parmi les chercheurs qui travaillent sur la surveillance algorithmique, on en a vu un qui part du postulat que c’est une technologie neutre, donc pour lui la présence de surveillance algorithmique n’est pas un indicateur de répression ou de menace pour les libertés en soi. (46)“This paper recognizes that AI surveillance technology is “value neutral.” In and of themselves, these tools do not foment repression, and their presence does not mean that a government is using them for antidemocratic purposes.” (S. Feldstein, op. cit.)
Juliana : Autrement dit, si on suit ce raisonnement, la surveillance algorithmique, tout dépend de ce qu’on en fait.
Laurent : Et ben ça tombe bien, parce que ce qu’on en fait, c’est ce qui se passe sous nos yeux en ce moment même, et c’est à ça qu’il va falloir être attentif.
réalisé par Juliana Ribeiro-Garcia et Laurent Pointecouteau
dans le cadre du Master Gouvernance des données de l’université d’Avignon
le 12 janvier 2024