Autoblog de la La quadrature du net

Ce site n'est pas le site officiel de la Quadrature du net.
C'est un blog automatisé qui réplique les articles de laquadrature.net

Loi sécurité globale adoptée : résumons

Fri, 16 Apr 2021 13:29:03 +0000 - (source)

La loi sécurité globale a été définitivement adoptée hier par l’Assemblée nationale, à 75 voix contre 33, au terme d’un débat soumis aux exigences de la police et dont nous n’attendions plus grand chose (lire notamment notre analyse de l’examen en commission à l’Assemblée ou au Sénat).

La prochaine étape sera l’examen de la loi par le Conseil constitutionnel. Nous lui enverrons bientôt nos observations. Avant cela, prenons un instant pour résumer les changements juridiques qui, sauf censure de la part du Conseil, résulteront de cette loi.

A. Surveillance

Tel qu’annoncé dans son récent livre blanc, l’objectif du ministère de l’intérieur est de faire entrer la police dans une nouvelle ère technologique pour les JO 2024, où la France pourra exposer son armement de pointe aux clients venus du monde entier – qu’il s’agisse d’armement jusqu’alors interdit (caméras par drones et hélicoptères) ou pré-existant mais que la loi sécurité globale va généraliser (caméras piétons et fixes).

1. Drones

2. Véhicules

3. Caméras piétons

4. Vidéosurveillance

B. « Continuum de la sécurité »

Le concept de « continuum de la sécurité », a été imaginé par Alice Thouvot et Jean-Michel Fauvergue, les auteurs de la PPL sécurité globale lors d’un rapport parlementaire de 2018. C’est l’idée d’articuler « au mieux » toutes les forces de police pour une obtenir une force sécuritaire plus efficace, tout en renforçant leurs prérogatives. Par « polices », il est entendu police nationale et gendarmerie, police municipale et agents de sécurité privée.

1. La sécurité privée : la nouvelle force de police

La loi sécurité globale prévoit de renforcer considérablement les pouvoirs et le rôle de la sécurité privée, pour en faire de véritables auxiliaires de police. Désormais, les agents de sécurité privée peuvent :

2. L’extension des pouvoirs de la police municipale

3. La protection renforcée des polices

Nous le répétons depuis des mois : cette loi est destinée à protéger la police contre la population, à satisfaire les velléités belliqueuses de certains syndicats de police et de sécurité privée, et n’améliorera en rien la sécurité de la population. Il est fondamental, pour les droits et la démocratie, que le Conseil constitutionnel, seul véritable contre-pouvoir institutionnel dans cette procédure, soit saisi et censure ce dernier affront sécuritaire.


Jugement contre le renseignement : indices d’une demi-victoire ?

Wed, 14 Apr 2021 14:34:01 +0000 - (source)

Deux jours avant l’audience du 16 avril au Conseil d’État, le rapporteur public vient de nous informer du sens des conclusions qu’il soutiendra dans notre grande affaire contre la surveillance de masse des télécommunications.

Si le Conseil d’État ne sera pas obligé de suivre les conclusions du rapporteur public, elles offrent de premiers indices sur ce que nous pouvons espérer gagner et perdre au terme de ces 6 ans de procédure.

Demi-victoire

Du côté de la victoire, le rapporteur public s’oppose au souhait du gouvernement de placer la France en dehors du champ d’application du droit de l’Union européenne. Ainsi, pour l’essentiel, le rapporteur public demande à ce que soient abrogés les décrets qui imposent aux opérateurs de télécommunications de conserver pendant un an les données de connexion de l’ensemble de la population (liste des correspondants téléphoniques, des antennes relais croisées, etc.). Telle qu’exigée par la Cour de justice de l’Union européenne, cette conservation généralisée doit être limitée aux seules périodes d’état d’urgence sécuritaire — ce qui n’est pas le cas en France.

Autre bonne nouvelle : le rapporteur public exige que les services de renseignement ne puissent plus exploiter nos données de connexion ou de localisation qu’en situation d’urgence sécuritaire et après s’être soumis au contrôle d’une autorité indépendante disposant de pouvoirs de contrainte. Actuellement, c’est la CNCTR (commission nationale de contrôle des techniques de renseignement) qui est chargée de surveiller les services de renseignement, mais son rôle se limite à donner des avis dépourvus de tout effet contraignant. Ici encore, la Cour de justice de l’UE a demandé à la France de corriger ce manquement, le rapporteur public demande au Conseil d’État de s’exécuter.

Demi-défaite

Hélas, à côté de ces deux espoirs importants, les conclusions du rapporteur public sont négatives sur trois points.

Premièrement, et contrairement à ce que demande la Cour de justice de l’UE, le rapporteur public n’appelle pas à la suppression des décrets qui obligent aux hébergeurs Internet de conserver pendant un an l’adresse IP de l’ensemble des personnes qui publient des informations sur leur service. Si le Conseil d’État suivait cette position, il placerait la France en manquement vis-à-vis des exigences européennes en matière de protection de l’anonymat sur Internet.

Deuxièmement, le rapporteur public ne demande pas à ce que les services de renseignement mettent fin aux algorithmes qu’ils déploient sur les réseaux de télécommunications afin de détecter automatiquement de nouvelles cibles. Pourtant, ici encore, la Cour de justice a exigé que cette technique de surveillance de masse soit limitée aux périodes d’état d’urgence sécuritaire — limite que la loi française refuse de prévoir.

Troisièmement, le rapporteur public suggère de laisser au gouvernement un délai de six mois afin de mettre le droit français en conformité avec le droit de l’UE. Pourtant, la Cour de justice de l’UE s’était expressément opposée à l’hypothèse d’un tel délai : le gouvernement français sait depuis plusieurs années que la France viole le droit européen et il n’y a donc aucune raison pragmatique de retarder le respect de nos libertés fondamentales.

Futur incertain

Si les conclusions du rapporteur public semblent dessiner une demi-victoire (rappelant pour beaucoup la défaite victorieuse que nous avions obtenue devant la Cour de justice de l’UE en octobre 2020), le futur reste en vérité largement incertain. Notre affaire est d’un poids politique rare, qu’il s’agisse de l’avenir des services de renseignement ou du sort de la France au sein de l’Union européenne. Ce poids est tel que le Conseil d’État a choisi de rendre sa décision dans sa formation exceptionnelle la plus solennelle, l’Assemblée du contentieux.

Ainsi, nous restons préparées à n’importe quel coup de théâtre et, notamment, à celui que le respect de nos libertés fondamentales impose : que le Conseil d’État ne s’arrête pas au demi-compromis proposé par le rapporteur public mais applique entièrement la décision de la Cour de justice en garantissant l’anonymat sur Internet et en s’opposant sans délai à toute mesure de surveillance de masse.


GendNotes : victoire temporaire contre l’interconnexion des fichiers

Wed, 14 Apr 2021 07:57:50 +0000 - (source)

Dans une décision rendue hier, le Conseil d’État s’oppose à l’alimentation sauvage des fichiers de police. Il a ainsi accueilli partiellement les griefs que nous soulevions contre l’application de prises de notes de la gendarmerie nationale, GendNotes, qui prévoyait des possibilités illimités d’interconnexions avec d’autres fichiers. La plus haute juridiction administrative a donc fait de GendNotes un gadget sécuritaire, maintenant que l’application est dépouillée des possibilités de reconnaissance faciale.

Comme nous l’expliquions l’année dernière, l’application de prises de notes de la gendarmerie nationale était un cheval de Troie de la reconnaissance faciale. En autorisant, comme cela était possible avant la décision d’hier du Conseil d’État, le transfert des notes des gendarmes (dont les photos) vers un nombre illimité de fichiers de police, il était donc possible d’alimenter le fichier des Traitements des antécédents judiciaires (TAJ) puis de faire de la reconnaissance faciale depuis ce fichier (voir notre recours contre le TAJ).

Le Conseil d’État y a mis fin. Alors que le ministère de l’intérieur affirmait depuis le début de cette affaire que le TAJ n’était pas directement concerné par cette interconnexion, le Conseil d’État lui a sèchement rappelé le droit : le décret était mal rédigé, trop permissif et permettait bien d’alimenter n’importe quel autre fichier de police. Le couperet est tombé : GendNotes ne peut désormais plus alimenter un quelconque autre fichier.

Même si nous développions dans notre recours d’autres griefs que le Conseil d’État n’a pas retenus, nous nous réjouissons de cette victoire. Cette décision rappelle que la police et le ministère de l’intérieur ne peuvent pas faire tout et n’importe quoi avec les données personnelles.

Cette victoire n’est, toutefois, que temporaire. Le gouvernement pourra revenir, comme il l’a déjà annoncé à l’occasion de cette affaire, avec une réforme des fichiers, pour encadrer cette interconnexion. Il devra, en revanche, minutieusement encadrer ce transfert de données et explicitement préciser les fichiers vers lesquels un tel transfert est possible.

Cette affaire a en revanche mis en lumière les pratiques douteuses de la gendarmerie nationale. En effet, dès 2017, on pouvait retrouver des traces de l’utilisation de GendNotes en dehors de tout cadre légal ou réglementaire. Ce n’est qu’en 2020 que cette application a — mal — été encadrée.

Surtout, nous avons découvert à l’occasion de ce recours l’existence d’une myriade d’applications mobiles pour les gendarmes, alors que rien ne les autorise. En juillet dernier, un rapport sénatorial nous apprenait que GendNotes n’est que la partie émergée de l’iceberg et que l’écosystème d’applications mobiles « Neogend » s’étend au-delà de la seule prise de notes. Il existe ainsi, également, une application dénommée « Messagerie tactique » destinée à interroger des fichiers de police. Mais aussi une application dédiée à l’interrogation du TAJ et, potentiellement, à la généralisation et à la facilitation de l’accès aux possibilités de reconnaissance faciale par les gendarmes. Cette première victoire contre GendNotes ne peut que nous pousser à aller en chercher d’autres contre cet ensemble de dispositifs et d’interconnexions illicites.


Jugement imminent contre la surveillance de masse

Wed, 07 Apr 2021 12:44:44 +0000 - (source)

D’ici deux ou trois semaines, le Conseil d’État rendra sa décision finale dans l’affaire la plus importante que La Quadrature ait jamais porté en justice : celle contre les services de renseignement français. Ce sera le terme de six années de procédure, de dizaines de mémoires et d’innombrables rebondissements qui auront contribué à faire de notre association une grande partie de ce qu’elle est aujourd’hui.

Cette aventure se clôt dans un fracas prodigieux. Coincé au pied du mur, le gouvernement français joue ses dernières cartes dans une stratégie aussi désespérée que destructrice : nier la légitimité des institutions européennes et, ainsi, placer la France dans une quasi-indépendance de fait vis-à-vis de l’Union européenne

Peu importe le droit, tout doit être sacrifié pour sauver la surveillance de masse.

Les juges contre la surveillance

L’aventure commence il y a sept ans. Le 8 avril 2014, nous nous réjouissions d’une « décision historique » : « la Cour de Justice de l’Union européenne (CJUE) venait de s’opposer au fichage systématique de nos communications en ligne ». De façon inédite, la Cour estime que le droit européen interdit qu’un État puisse obliger les opérateurs de télécommunications à conserver des données de connexion sur toute la population : liste des appels et messages émis et reçus par chaque personne, listes des antennes téléphoniques croisées par tous les téléphones portables, adresses IP permettant de lever l’anonymat sur Internet, etc. C’est notamment ce qu’impose la France, où chaque personne est considérée par l’administration comme un potentiel suspect à surveiller.

Alors que le gouvernement français aurait du abroger ce régime, un an après la décision de la Cour de justice, il n’en avait toujours rien fait : le 27 avril 2015, nous nous associons à FFDN et FDN pour lui demander officiellement d’abroger les décrets organisant la conservation généralisée des données de connexion. Par son silence, le gouvernement a refusé notre demande. Le 1er septembre 2015, nous avons saisi le Conseil d’État pour contester ce refus et, ainsi, faire tomber le système français de conservation généralisée des données (nous avons développé nos arguments pendant un an encore dans diverses écritures ici, ici, ou encore ).

Le 21 décembre 2016, tandis que notre affaire avançait doucement, intervenait ailleurs une deuxième décision historique de la Cour de justice : dans son célèbre arrêt Tele2, elle dénonçait la conservation généralisée des données de connexion imposée par les droits suédois et anglais. Il ne restait plus au Conseil d’État qu’à appliquer directement cette décision dans notre affaire française pour nous donner victoire. Mais la procédure n’allait pas suivre un déroulement classique.

Dialogue des juges

Par une décision du 26 juillet 2018, plutôt que de se soumettre directement à la Cour de justice de l’UE, dont l’autorité lui est supérieure, le Conseil d’État a préféré lui demander de confirmer une troisième fois sa position. Même si ce nouvel échange allongeait notre procédure de plusieurs années (trois ans, au final), nous l’appelions aussi de nos vœux : si la Cour européenne condamnait spécifiquement le droit français (de même qu’elle avait déjà condamné le droit suédois et anglais dans Tele2), nous espérions que le gouvernement n’aurait absolument plus aucune excuse pour ne pas renoncer à son système illicite de surveillance.

Les 9 et 10 septembre 2019, nous plaidions devant la Cour européenne contre la moitié des gouvernements européens venus en soutien de la France, de la Belgique et du Royaume-Uni, qui mettaient en œuvre le même régime illicite de conservation de données et se voyaient ainsi visés par des requêtes semblables à la nôtre (lire le texte de notre plaidoirie).

Fin d’une trilogie

Le 6 octobre 2020, la Cour de justice de l’UE rendait sa décision La Quadrature du Net, dernier chapitre de cette trilogie européenne. Hélas, comme l’espéraient le Conseil d’État et le gouvernement, la Cour est largement revenue sur son intransigeance des premiers épisodes et cherche désormais un « juste milieu » entre protection des libertés et surveillance de masse (juste milieu amer dans lequel nous avions vu une « défaite victorieuse »).

Si la Cour continue d’interdire par principe la conservation généralisée, elle ajoute une nouvelle exception en période d’état d’urgence sécuritaire, où cette surveillance de masse redevient licite. De plus, elle autorise aussi, même hors état d’urgence, que les fournisseurs d’accès à Internet soient contraints de conserver les adresses IP de l’ensemble de la population (mais uniquement des IP et non d’autres types de données). 

Concrètement, cela signifie que la police pourra demander à votre fournisseur d’accès à Internet quelle adresse IP vous était attribuée, par exemple, le 25 octobre 2020.

Si cette possibilité est un frein important à notre espoir de rétablir un équilibre plus favorable au droit à l’anonymat sur Internet, ce frein est en revanche compensé par une nouvelle protection posée par la Cour de justice : l’État ne peut pas imposer aux hébergeurs (forum, réseaux sociaux, plateforme de vidéo) de conserver l’adresse IP des personnes qui y publient des informations. Dans notre exemple, cela signifie que, même si la police connaît votre adresse IP, elle ne pourra pas savoir si c’est à partir de cette adresse que @jeancastou a publié telle caricature de Macron ou tel appel à l’insurrection le 25 octobre sur un service d’hébergement qui ne sera pas tenu de conserver les informations relatives aux contenus publiés. Par exemple, sur le service Mamot.fr que nous hébergeons, nous ne conservons ces données que 14 jours, et ce pour des raisons purement techniques.

On imagine donc que la levée de l’anonymat ne concernera principalement que des événements déterminés, « en cours », et sur des personnes précises. En effet, les enquêtes rétrospectives pouvant porter sur l’ensemble des activités en ligne de la population ont été rendues plus difficiles par les interdictions posées par la Cour de justice de l’UE.

Ce « juste milieu » est loin de nous protéger de la surveillance de masse tant le gouvernement sait déjà abuser des exceptions en matière d’état d’urgence. Et pourtant, même si les exigences posées par la Cour on été revues à la baisse, le droit français est encore très loin de les respecter : actuellement, en France, la conservation généralisée des données de connexion n’est limitée ni aux périodes d’état d’urgence ni aux seules adresses IP (pour rappel, sont aussi conservées en permanence et pendant un an les listes d’appels, messages et positions des antennes téléphoniques rencontrées par toute la population). La Cour de justice a été explicite dans sa décision : le droit français viole les libertés fondamentales protégées par le droit de l’Union.

Affront désespéré

Cette situation ressemble à celle à laquelle nous espérions parvenir en 2018 : le gouvernement français est au pied du mur, sans aucune porte pour se dérober. La Cour de justice de l’UE a été claire : il doit réformer le droit en profondeur afin de limiter la conservation généralisée aux périodes d’état d’urgence et aux adresses IP. 

Et pourtant, le gouvernement tente encore de fuir par un affront désespéré : dans son récent mémoire en défense, il prétend que la Cour de justice aurait usurpé ses pouvoirs car, contrairement à ce qu’elle prétend, les traités européens lui interdiraient de limiter les capacités des États membres en matière de lutte contre le terrorisme et de surveillance sécuritaire.

Si cet affront est désespéré, c’est d’abord car il est absurde en droit : l’article 19 du Traité sur l’UE (TUE) prévoit bien que c’est à la Cour de justice que revient « l’interprétation et l’application des traités », et l’article 344 du Traité sur le fonctionnement de l’UE (TFUE) souligne que ces questions ne peuvent être tranchées autrement. Dans sa jurisprudence bien établie, le Conseil d’État admet d’ailleurs déjà clairement qu’il doit se soumettre aux interprétations que la Cour de justice donne des traités.

Le gouvernement ne donne au Conseil d’État aucun argument juridique pour justifier qu’il renonce à une jurisprudence aussi fondamentale. En vérité, le gouvernement ne se donne même pas la peine d’aller sur le terrain juridique afin de débattre de la légalité d’un tel régime de conservation. Il se contente d’utiliser de mauvais arguments de philosophie politique, tout en mobilisant quelques jugements isolés rendus dans d’autres pays et qui n’ont pas vraiment de lien avec notre affaire (lire notre mémoire pour le détail de notre réponse).

Frexit sécuritaire

Au delà de la discussion juridique, le plus surprenant dans la position du gouvernement est qu’elle contredit la posture européenne de LREM.

En souhaitant retirer à la Cour de justice sa légitimité pour interpréter les traités européens en dernier ressort, le gouvernement français remet en cause l’existence même d’un ordre juridique européen : si chaque État pouvait décider seul du sens des traités européens, l’Union européenne ne serait plus qu’une juxtaposition d’ordres nationaux indépendants les uns des autres, libérés de toute institution capable de les soumettre à un ensemble commun de normes. Ainsi, afin de maintenir son système de surveillance de masse contraire aux droits humains, la France souhaite devenir indépendante de l’Union européenne sans avoir à la quitter formellement.

Plus étrange encore : la stratégie anti-européenne du gouvernement conduit à saper sa position en matière de lutte anti-terroriste. À suivre sa nouvelle position, le règlement de censure anti-terroriste, initialement demandé par la France et bientôt adopté par le Parlement européen, pourrait ne pas être applicable en France puisque l’Union européenne ne serait pas compétente en matière de lutte contre le terrorisme… 

Cette contradiction invraisemblable montre que la défense du gouvernement tient davantage à un sursaut désespéré que d’une stratégie d’ensemble bien mûrie. Mais cette contradiction nous montre autre chose : la lutte anti-terroriste n’est pas sa véritable préoccupation dans notre affaire.

Surveillance politique

Le 22 mars 2021, nous participions à une séance orale d’instruction devant le Conseil d’État. Le directeur général de la sécurité intérieur (DGSI) expliquait alors que la décision de la Cour de justice ne remettait pas vraiment en cause l’efficacité de la lutte contre le terrorisme. En effet, cette lutte pourra continuer à être mise en œuvre puisqu’elle est directement concernée par les nouvelles exceptions prévues par la Cour de justice et bénéficie déjà aujourd’hui d’un arsenal législatif très large (beaucoup trop large). La principale crainte de la DGSI était ailleurs : que les services de renseignement ne puissent plus efficacement surveiller les personnes susceptibles de participer à des « groupements violents », mentionnant explicitement le cas des gilets jaunes, ou les personnes représentant un danger pour les « intérêts économiques et industriels majeurs de la France ».

Si la franchise est surprenante, elle recentre le débat : la lutte contre le terrorisme n’est pas vraiment la raison qui pousse le gouvernement à vouloir s’affranchir de la protection des libertés ; l’enjeu est le maintien de la répression politique, dans le contexte actuel où la moindre manifestation est considérée comme un groupement potentiellement violent et où les militants soucieux de justice sociale et écologique sont considérés comme nuisant à la sécurité et aux intérêts des grandes industries du pays.

C’est ce qu’annonçait déjà l’Élysée en 2019, dans sa feuille de route à cinq ans sur le renseignement : « l’analyse et le suivi des mouvements sociaux et crises de société par les services de Renseignement constituent une priorité ». L’Élysée dénonce notamment des « affirmations de vie en société qui peuvent exacerber les tensions au sein du corps social », telles que des « revendications d’ordre […] éthique ».

À la suite de la DGSI, divers procureurs et hauts gradés de la police ont tenté de corriger cette position embarrassante par une posture sécuritaire beaucoup plus convenue. Sans preuve ni chiffre, ces hommes ont juré que la police ne pourrait plus jamais travailler sans pouvoir consulter la liste complète des antennes téléphoniques croisées par chaque personne depuis un an. Nous n’avons pas manqué de rappeler que la police s’en était très bien passée au cours des siècles précédents et que, même aujourd’hui, elle ne manque pas d’outils nouveaux, nombreux et perfectionnés pour mener à bien ses enquêtes (lire notre dernier mémoire à ce sujet).

Bref, pas grand chose n’a pu effacer cette impression amère : le gouvernement est prêt à payer le prix fort (remettre en cause la construction européenne) pour continuer à nous surveiller massivement pour des finalités politiques et de contrôle social.

Finalités illicites

C’est à ce sujet qu’intervient le second apport majeur de la trilogie européenne contre la surveillance de masse : la Cour de justice interdit aux États membres d’exploiter des données de connexion pour des finalités politiques. Elle n’autorise que la lutte contre la « criminalité grave » ou pour défendre la sécurité nationale

Comme on l’a vu, la France souhaite aller et va déjà bien au-delà. La loi française prévoit un très large éventail de finalités qui vont de la lutte contre les manifestations illicites à la défense des traités européens, en passant par la lutte contre le petit trafic de drogue ou la défense des « intérêts économiques, industriels et scientifiques majeurs de la France ».

Cette longue liste vient de la loi de renseignement de 2015. Ici aussi, nous avons saisi le Conseil d’État pour demander l’annulation des cinq décrets d’application de cette loi. Ici aussi, ces cinq affaires ont conduit le Conseil d’État à interroger la Cour de justice, qui nous a largement donné raison en rappelant sans nuance que la surveillance doit se limiter à la lutte contre la criminalité grave et à la protection de la sécurité nationale.

Au passage, la Cour a rappelé que, contrairement à ce que prévoit la loi renseignement en France, les mesures de surveillance doivent être soumises au contrôle préalable d’une autorité indépendante disposant d’un véritable pouvoir de contrainte. Elle a aussi souligné que les « boites noires », ces algorithmes supposés détecter automatiquement des comportements suspects en analysant l’ensemble du réseau, relevaient de la surveillance de masse illicite.

Comme pour le reste, nous vous invitons à lire notre récent mémoire pour le détail de notre argumentation. 

Cette question de « finalités politiques » des mesures de surveillance a été la toute première affaire que La Quadrature a porté devant des juges en 2015, juste avant d’attaquer les décrets instaurant la conservation généralisée des données de connexion puis de s’en prendre à la loi renseignement. C’est par cette lutte initiale que nous avons appris à agir en justice. Cette lutte est à la fois la plus ancienne et probablement la plus importante que nous avons portée en justice. Les effets de la future décision du Conseil d’État risque d’être considérables : si nous nous gagnons, ce sera la fin de la conservation généralisée des données de connexion, la limitation des finalités, l’apparition d’un contrôle indépendant effectif. Si nous perdons, la France se placera en indépendance de fait vis à vis de l’Union européenne afin de poursuivre sa surveillance de masse.


Technopolice at the borders

Wed, 31 Mar 2021 13:57:53 +0000 - (source)

How the security-and-surveillance business in the heart of the EU, besides violating fundamental rights, uses exiles as a research lab, funded by European public funds.

We have talked a lot here in recent months about the surveillance of demonstrations or surveillance in urban public spaces, but the technopolice is deployed above all at the borders — and notably for us, at the borders of « fortress Europe ». These technopolicing methods are first financed, supported, and used for experimentation by the EU, and then sold on. This surveillance of the borders represents a huge market, profiting greatly from the european scale and from its research and development (R&D) programs like Horizon 2020.

Roborders – a swarm of autonomous drones at the borders

An exemple is the project « Roborder » : a pun between robot and border. Launched in 2017, it plans to have borders watched over by swarms of autonomous drones, functioning and patrolling together. These drones would be equipped with AI able to recognize humans and discern whether they are committing infractions (such as crossing borders?) and how dangerous they are, and send warnings to border police. These drones can move in the air, underwater, on water and on ground vehicles. Equipped with multiple sensors, more than merely detecting criminal activities, these drones will aim to identify « unreliable radio frequencies », meaning to eavesdrop on communications, as well as measuring underwater sonic pollution. These autonomous drones are apparently not equipped with weapons for now. Roborder is currently being deployed experimentally in Greece, Portugal and Hungary.


European funding for « civilian » uses

This project is financed at the level of 8 million euros by the Horizon 2020 program (itself subsidised by Cordis, the R&D agency of the European Commission). Horizon 2020 makes up 50% of public financing for all the EU’s security research.
Roborder is coordinated by the Greek center for research and technology (CERTH), and, as evidenced by the Homo Digitalis association, the number of Horizon 2020 projects keeps on growing in Greece. Besides the Greek CERTH, there are now 25 participants coming from all the EU countries (amongst which we find the police of Northern Ireland, the Greek defense ministry, German drone manufacturers, etc.).

Horizon 2020 finances projects such as these on the condition that the technologies being developed stay within the realm of civilian uses, and can’t be used for military purposes. This may look like a safeguard, but in reality, the distinction between civilian and military usage is far from being clearly established. As Stephen Graham demonstrates, technologies that start as military ones are often repurposed for security, particularly in borders context, where migration is criminalised. This porousness between security and military stems from the need to find ways to get good returns on military research. Such was the trajectory of drones or tear gas. But in our case, a reverse logic is at play : potentially repurposing an internal security usage called « civilian » as a military application for the sake of future sales. But we can also consider surveillance, the detection of persons and repression at the borders as a material form of how Europe is militarizing its borders. In this light, Roborder would be a project with military aims.

In fact, as The Intercept shows, once a project is finished, it is sold. And it is not clear to whom. According to the online magazine, many parties have already expressed interest in Roborder.

IborderCtrl – detecting emotions at the borders

Swarms of drones are impressive, but there are other projects in the same vein, notably the project called IborderCtrl tested in Greece, Hungary, and Latvia.

Its main feature is emotions analysis (alongside other projects of biometry): people wanting to cross a border must answer a series of question, while an algorithm processes their face to determine whether they are lying. The project claims « to speed up controls at borders »: if the lie detector deems someone is telling the truth, it attributes her a code which allows her to pass control easily. If the algorithm deems her to be lying, she’s sent to a second line where the border guards will interrogate her. The emotion analysis claims to be based on « 38 facial micromovements » such as the tilting of the head or the movement of the eyes. Such display of pseudoscientific gadgetry serves a function : giving a semblance of technological neutrality to policies of exclusion and dehumanization.

This project has also been financed by Horizon 2020 to the level of 4.5 million euros. It appears to have been stopped, but German Eurodeputy Patrick Breyer has appealed to the European Court of Justice for more information on the projet. His demand was denied, on the ground that it violates trade secrecy. Once again we see that designating the project « civilian » and not « military » is far from being foolproof.

Conclusion

This is how the EU participates actively in the powerful market for surveillance and repression. Borders and exiled persons are used as laboratory resources in a framework of the ever-increasing militarisation of the borders of Fortress Europe, and pursuit of profit and the development of European businesses and research centers. The borders make up a new market and a new windfall to finance the technopolice.

And on the other hand, the figures show an explosion of the budget of the European Frontex agency (from 137 million euros in 2015 to 322 million in 2020; figures of the European accounting court), and ever-greater surveillance of the borders. At the same time the ratio between the number of those who try to cross the Mediterranean and the number who lose their lives there is only growing. Automating surveillance at the borders is thus no more than a new way for European authorities to highlight the drama playing out in the Mediterranean region, for « effectiveness » which, in the end, will profit only the surveillance industry.

In the streets and at the borders we must turn down the technopolice and struggle against them eye to eye!

This article was first published by the technopolice site (in french).


GendNotes : entre flicage inavoué et mauvaise foi

Fri, 26 Mar 2021 14:56:35 +0000 - (source)

Il y a plus d’un an, le gouvernement autorisait par décret la gendarmerie à utiliser une application de prise de notes sur téléphone mobile intitulée GendNotes. Nous avions déposé un recours contre ce décret devant le Conseil d’État l’année dernière et venons tout juste de recevoir la défense du ministère de l’intérieur. Mais, alors que celle-ci aurait mérité plus de temps pour y répondre, la plus haute juridiction administrative accélère le pas et a d’ores et déjà prévu une audience lundi prochain, 29 mars, lors de laquelle le rapporteur public conclura au rejet partiel de notre recours.

Comme nous le dénoncions au moment de la publication du décret, l’application GendNotes fait l’impasse sur les garanties les plus élémentaires (lire notre premier mémoire). Alors que la CNIL pointait du doigt le fait que la rédaction du décret permet un transfert des données de GendNotes vers un nombre illimité d’autres fichiers de police, elle fut parfaitement ignorée. Nous alertions alors contre le fait que GendNotes est un cheval de Troie de la reconnaissance faciale puisqu’il permet une alimentation du fichier TAJ, lequel autorise de tels dispositifs de reconnaissance faciale.

La stratégie de défense du gouvernement consiste à affirmer que l’application GendNotes ne permettrait pas d’alimenter le TAJ. Le rapporteur public semble vouloir donner tort au gouvernement sur ce point puisqu’il prononcera lundi des conclusions qui vont dans le sens d’une annulation partielle du décret, précisément sur la question du transfert de données vers d’autres fichiers (dont le TAJ) ultérieurement à leur collecte dans GendNotesEnviron deux jours ouvrés avant l’audience, le sens des conclusions du rapporteur public est communiqué aux parties. Sans connaître le raisonnement tenu, nous connaissons déjà le résultat. Il faut cependant garder en tête que les conclusions du rapporteur public ne lient pas la formation de jugement et que le Conseil d’État, dans son arrêt final, peut très bien contredire les conclusions de son rapporteur public..

En revanche, le rapporteur public semble faire l’impasse sur la proportionnalité de ce traitement de données et les garanties apportées. Alors que GendNotes vise aussi à collecter des données sensibles (même si celles-ci ne peuvent être transférées dans d’autres fichiers de police) dans le seul objectif de faciliter la vie des gendarmes, nous dénoncions un gadget aux graves conséquences sur les droits et libertés. Le rapporteur public semble sur le point de valider un système dans lequel la police décide seule des informations collectées, sans que ne soit prévu un quelconque contrôle sur la pertinence des données ainsi collectées. Il semble également vouloir faire fi du principe de « nécessité absolue » pourtant requis par le droit et, nous le pensons, totalement absent dans ce dispositif gadget de prises de notes.

Dès 2017, un rapport de l’Assemblée nationale indiquait déjà l’existence et l’utilisation de l’application GendNotes. Celle-ci n’est toutefois qu’un élément parmi d’autres d’une désormais très longue liste de dispositifs de police utilisés en toute illégalité puis autorisés a posteriori. On pourrait citer le cas de la loi renseignement de 2015 qui légalisait les pratiques préexistantes des services de renseignement. On pourrait aussi citer l’exemple des drones, utilisés depuis de nombreuses années pour surveiller les manifestations avant que nous les fassions interdire par le Conseil d’État, et que la proposition de loi Sécurité Globale veut maintenant légaliser. Et que dire de la reconnaissance faciale du TAJ qui existait des années avant la création formelle du fichier de police et que la loi Sécurité Globale vise à étendre ?

Nous avons malgré tout, dans l’urgence, répondu au gouvernement. La décision finale qui suivra l’audience de lundi devrait arriver dans les prochaines semaines. Pour continuer ce combat sur des fronts de plus en plus nombreux, nous avons, plus que jamais, besoin de votre aide grace à vos dons.


Lettre commune de 61 organisations européennes pour demander le rejet du règlement de censure antiterroriste

Thu, 25 Mar 2021 10:17:23 +0000 - (source)

Avec 60 organisations européennes, nous demandons aux parlementaires européens de rejeter le projet de règlement de censure antiterroriste sur lequel ils sont appelés à voter le 28 avril prochain.

Ce texte sécuritaire obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme terroriste par la police, et ce sans intervention préalable d’un juge. Cette obligation de retrait en une heure est exactement celle qui, au sein de la loi Avia, a été censurée par le Conseil constitutionnel en juin 2020. Plusieurs parlementaires français continuent pourtant à défendre ce projet.

La lettre en PDF (et en anglais), recopié ci-dessous avec la liste des signataires :

Chers membres du Parlement européen,

Nous vous écrivons pour vous faire part de nos préoccupations concernant la proposition de règlement de l’Union européenne relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. Nous invitons les membres du Parlement européen à voter contre l’adoption de la proposition.

Depuis 2018, nous, les organisations de défense des droits humains, associations de journalistes et chercheurs soussignés, mettons en garde contre les graves menaces que cette proposition législative fait peser sur les droits et libertés fondamentaux, en particulier la liberté d’expression et d’opinion, la liberté d’accès à l’information, le droit à la vie privée et l’État de droit.

Grâce au travail de l’équipe de négociation du Parlement européen, à un débat élargi et à la participation de la société civile, un certain nombre de problèmes ont été abordés au cours des trilogues entre le Parlement européen et le Conseil de l’Union européenne.

Toutefois, malgré le résultat des dernières négociations du trilogue, le texte final de la proposition de règlement contient toujours des mesures dangereuses qui, à terme, affaibliront la protection des droits fondamentaux dans l’UE. Cela risque également de créer un dangereux précédent pour la réglementation des contenus en ligne dans le monde entier.

La proposition de règlement doit faire l’objet d’un vote final en plénière au Parlement européen en avril 2021. Nous invitons les membres du Parlement européen à voter contre l’adoption de la proposition pour les raisons suivantes :

1. La proposition continue d’inciter les plateformes en ligne à utiliser des outils automatisés de modération de contenu, tels que des filtres de téléchargement

Le court délai imposé par la proposition de règlement aux hébergeurs en ligne pour retirer le contenu considéré comme étant à caractère terroriste incite fortement les plateformes à déployer des outils automatisés de modération de contenu, tels que les filtres de téléchargement. Les pratiques actuelles de modération de contenu se caractérisent par le profond manque de transparence et de précision de la prise de décision automatisée. Parce qu’il est impossible pour les outils automatisés de différencier invariablement le militantisme, les contre-discours, et la satire à propos du terrorisme du contenu considéré comme terroriste lui-même, une automatisation accrue entraînera à terme la suppression de contenus légaux comme le contenu journalistique, le traitement discriminatoire des minorités et de certains groupes sous-représentés. Les plateformes suppriment déjà d’énormes quantités de contenus publiés par des survivants, des civils ou des journalistes documentant la violence dans les zones de guerre, tel que le montre le travail des Syrian and Yemeni Archives, ce qui peut entraver les efforts de responsabilisation. La proposition de règlement, qui manque de mesures de protection afin d’empêcher de telles pratiques de suppression erronées lorsque des outils automatisés sont utilisés, ne fera que renforcer cette tendance. En outre, les filtres de téléchargement peuvent avoir un effet négatif sur l’internet, notamment en ce qui concerne son architecture ouverte et ses éléments constitutifs interopérables.

2. Il existe un manque cruel de contrôle judiciaire indépendant

La proposition de règlement demandent aux États membres de désigner, à leur discrétion, les autorités compétentes qui seront investies des pouvoirs nécessaires pour mettre en œuvre les mesures prévues par le règlement, notamment l’émission d’injonctions de retrait de contenu. Même si la proposition indique que les autorités doivent être objectives, non discriminantes, respectueuses des droits,nous pensons néanmoins que seuls les tribunaux ou les autorités administratives indépendantes faisant l’objet d’un contrôle judiciaire devraient avoir le pouvoir d’émettre des injonctions de suppression de contenu. L’absence de contrôle judiciaire constitue un risque grave pour la liberté d’expression et l’accès à l’information. Il porte également atteinte à la Charte des droits fondamentaux, qui protège la liberté de recevoir et de communiquer des informations et stipule que l’expression licite est protégée et ne devrait être limitée qu’ultérieurement, par un tribunal et sur demande légitime.

3. Les États membres émettront des injonctions de suppression transfrontalières sans aucun garde-fou

Selon les résultats du trilogue, toute autorité compétente aura le pouvoir d’ordonner la suppression d’un contenu en ligne, hébergé n’importe où dans l’UE, dans un délai d’une heure. Cela signifie qu’un État membre peut étendre sa compétence d’exécution au-delà de son territoire sans contrôle judiciaire préalable et sans tenir compte des droits des personnes dans les juridictions concernées. Compte tenu des graves menaces qui pèsent sur l’État de droit dans certains États membres de l’UE, la confiance mutuelle qui sous-tend la coopération judiciaire européenne pourrait être sérieusement compromise. En outre, la procédure de notification, émise à l’État membre concerné, et de vérification parce même État, prévue dans le texte actuel, ne contient pas de garanties suffisantes contre une intervention excessive et les abus de pouvoir d’un État. Elle ne permettra pas non plus de résoudre les désaccords entre les États membres sur ce qui relève du terrorisme, de l’humour, de l’expression artistique ou du reportage journalistique.

Nous demandons instamment au Parlement européen de rejeter cette proposition, car elle pose de graves menaces aux droits et libertés fondamentaux, en particulier la liberté d’expression et d’opinion, la liberté d’accès à l’information, le droit à la vie privée et l’État de droit. De plus, elle créera un dangereux précédent pour toute future législation européenne réglementant l’écosystème numérique en faussant le cadre d’application de la loi sous prétexte de renforcer le marché unique numérique. Par conséquent, la réglementation sur les contenus terroristes dans son état actuel n’a pas sa place dans le droit européen.

Signataires

Access Now, International

Amnesty International

Antigone, Italian

ARTICLE 19, International

Asociația pentru Tehnologie și Internet (ApTI), Romania

Association of European Journalists (AEJ), Belgium

Bits of Freedom, the Netherlands

Bulgarian Helsinki Committee, Bulgaria

Centre for Democracy & Technology (CDT), International

Chaos Computer Club (CCC), Germany

Civil Liberties Union for Europe (Liberties), International

Comité de Vigilance en matière de Lutte contre le Terrorisme (Comité T), Belgium

Committee to Protect Journalists (CPJ), International

Communia, International

Digitalcourage, Germany

Digitale Gesellschaft, Germany

Digital Rights Ireland, Ireland

Državljan D, Slovenia

Electronic Frontier Finland (Effi), Finland

Electronic Frontier Foundation (EFF), USA

Elektroniks Forpost Norge (EFN), Norway

Entropia e.V., Germany

epicenter.works, Austria

European Digital Rights (EDRi), International

European Federation of Journalists (EFJ), International

Fitug e.V., Germany

Föreningen för digitala fri-och rättigheter (DFRI), Sweden

Freemuse, International

Global Forum for Media Development (GFMD), International

Global Voices, International

Helsinki Foundation for Human Rights, Poland

Hermes Center, Italy

Homo Digitalis, Greece

Human Rights Monitoring Institute, Lithuania

Human Rights Watch, International

International Commission of Jurists, International

Internationale Liga für Menschenrechte, Germany

International Federation for Human Rights (FIDH), International

Internet Governance Project, School of Public Policy at the Georgia Institute of Technology

Internet Society, International

IT Political Association of Denmark (IT-Pol), Denmark

Irish Council for Civil Liberties, Ireland

La Quadrature Du Net (LQDN), France

Latvian Human Rights Committee, Latvia

Liga voor de Rechten van de Mens, the Netherlands

Liga voor Mensenrechten, Belgium

Ligue des Droits de l’Homme, France

Ligue des Droit Humains, Belgium

Mnemonic, International

Open Technology Institute, USA

Panoptykon Foundation, Poland

Ranking Digital Rights, USA

Reporters Without Borders (RSF), International

Rights International Spain, Spain

Statewatch, the United Kingdom

Vrijschrift.org, The Netherlands

Wikimedia Deutschland, Germany

Wikimedia France, France

WITNESS, International

Xnet, Spain

7amleh -The Arab Center for the Advancement of Social Media, Palestine


Sécurité Globale : le Sénat dit oui à la surveillance de masse

Fri, 19 Mar 2021 10:27:13 +0000 - (source)

Hier, le Sénat a voté à son tour la proposition de loi sur la « Sécurité globale », cinq mois après le vote en première lecture à l’Assemblée nationale. S’agissant d’une procédure accélérée, la prochaine étape sera directement en commission mixte paritaire, peut-être dès le début du mois d’avril. Au vu de la version du texte votée par le Sénat, il n’y a malheureusement rien à attendre de cette commission. Nos espoirs reposent maintenant sur le Conseil constitutionnel, qui devra censurer largement les dispositions de ce texte ultra-sécuritaire.

Il y a deux semaines, nous dénoncions le texte adopté par la commission des lois du Sénat sur la proposition de loi dite de « Sécurité globale ». Après trois jours de débat en hémicycle, le Sénat vient cette fois-ci d’adopter le texte dans son ensemble.

Il a donc dit oui à l’intensification de la vidéosurveillance fixe, à l’extension de la liste des personnes pouvant avoir accès à la surveillance de la voie publique, à la transmission en direct des images des caméras-piétons, aux drones, aux hélicoptères et à l’article 24.

Le Sénat ne s’est malheureusement pas arrêté là. Il a également, par plusieurs dispositions, aggravé le texte. Mais soyons rassuré·es : il s’agit désormais de la « proposition de loi pour un nouveau pacte de sécurité respectueux des libertés ».

Surveillance vidéo des cellules de centres de rétention administrative (CRA) et de garde à vue

Le pire ajout du Sénat est peut-être celui-ci. S’accordant avec le gouvernement, les rapporteurs ont fait adopter une disposition permettant au ministre de l’intérieur de mettre des caméras dans les chambres d’isolement des centres de rétention administrative et des cellules de garde à vue.

Les propos du gouvernement sur cet ajout ont été proprement indignes. Alors que la France est régulièrement interpellée par différentes associations depuis des années, que le Contrôleur général des lieux de privations de libertés pointe régulièrement les conditions de détention indignes, que les condamnations par des juridictions françaises et internationales pleuvent, Gérald Darmanin a préféré opter pour une stratégie du mensonge en niant les graves atteintes aux droits des personnes incarcérées. Le tout pour défendre la mise en place de vidéosurveillance dans les cellules.

Derrière l’écran de fumée de la lutte contre les suicides et mutilations (alors même qu’on peine à imaginer en quoi une caméra de vidéosurveillance permettrait de lutter contre ces situations de détresses humaines), le ministre de l’intérieur, le Sénat et ses rapporteurs ont créé une surveillance permanente du peu d’intimité qui reste aux personnes retenues.

Interpellé sur l’incohérence à vouloir mettre des caméras dans des lieux insalubres, Gérald Darmanin a répondu par le déni, détournant le sujet en estimant qu’il faudrait plus de CRA et qu’« on a l’argent pour construire des CRA ». Cet argent magique n’est, visiblement, pas prévu pour améliorer le respect des conditions de détention. Mais, surtout, alors que le débat portait sur les conditions indignes d’incarcération, M. Darmanin transformait les propos de l’opposition en un soi-disant « procès scandaleux » sur de possibles actes de tortures en milieux de rétention, dans une tentative bien grossière de créer une « affaire dans l’affaire ».

Des caméras-piétons pour les gardes-champêtres

Autre ajout aggravant : l’autorisation d’une « expérimentation » pour permettre aux gardes-champêtres d’utiliser des caméras individuelles et de filmer les « incidents » se produisant ou susceptibles de se produire pendant leur intervention.

Après la police nationale et la police municipale, et après les services de sécurité des transports, c’est donc une nouvelle catégorie d’agents qui aura accès à la vidéosurveillance mouvante. Prétextant comme toujours d’une capacité soi-disant « pacificatrice » de ce dispositif — et faisant oublier que la caméra-piéton était à la base une idée de l’ancien ministre Bernard Cazeneuve pour compenser son refus de la proposition des « récépissés » de contrôle d’identité —, le gouvernement légitime encore une fois un nouveau dispositif de surveillance.

Drones : les mains libres pour le ministre de l’intérieur

Concernant les drones, l’interdiction de la reconnaissance faciale pour les images captées décidée en commission des lois demeure, mais c’est bien le seul point positif. Le Sénat a accepté de permettre également à la police municipale (et non plus seulement à la gendarmerie ou la police nationale) d’utiliser des drones pour surveiller la voie publique et constater certaines infractions. Si cette autorisation est donnée à titre expérimental, il ne faut pas se leurrer : en la matière, une expérimentation est toujours amenée à être intégrée dans le droit commun après quelques temps. Autorisation a par ailleurs été donnée à la police municipale d’utiliser des caméras embarquées sur leurs véhicules, cette fois-ci directement de manière définitive.

Le Sénat a par ailleurs laissé au ministère de l’intérieur le soin d’écrire, via un décret, ses propres lignes directrices quant à l’utilisation de ses drones, aussi bien sur la question de la formation en données personnelles que sur la proportionnalité des usages prévus. La garantie d’un avis préalable de la Cnil sur cette question n’est pas là pour nous rassurer, le ministère de l’intérieur ayant pour habitude de ne pas respecter les avis de cette dernière et la présidente de la CNIL s’étant montrée particulièrement peu lucide sur cet enjeu, lors des auditions au Sénat d’abord, puis dans l’avis de l’autorité sur le texte.

Le projet assumé d’une société sous surveillance biométrique

Enfin, le moratoire proposé par le groupe écologiste pour interdire pendant deux ans tout dispositif de vidéosurveillance biométrique a été rejeté.

Cela a néanmoins permis d’expliciter le projet de surveillance désiré par le gouvernement et la droite au Sénat. Devant le silence méprisant de l’hémicycle sur cette proposition de moratoire, une partie des sénateurs et sénatrices ont en effet demandé un scrutin public sur le vote, en précisant que rejeter ce moratoire revenait à autoriser la surveillance biométrique. Sur 344 votants, 244 ont donc voté pour la surveillance biométrique.

À cet égard, le récent décret autorisant le comptage de masques dans les transports apparaît ainsi de plus en plus comme un nouveau pied dans la porte menant à la Technopolice que nous dénonçons régulièrement.

L’idée qu’essaient de faire passer les rapporteurs au Sénat, sur un travail de « juriste sérieux » visant à encadrer les plus graves dispositions du texte, ne tient plus. Hier, non seulement aucune amélioration notable n’a été apportée au texte, mais plusieurs dispositions sont venues aggraver le danger pour nos libertés. Il reste encore l’étape de la Commission mixte paritaire, qui réunira les élu·es de l’Assemblée nationale et du Sénat mais de laquelle nous n’attendons absolument rien. Rendez-vous donc au Conseil constitutionnel pour tenter de faire barrage à ce nouveau coup de semonce sécuritaire.


Health Data Hub : du fantasme de l’intelligence artificielle à la privatisation de nos données de santé

Wed, 17 Mar 2021 12:18:46 +0000 - (source)

Projet central du « Plan national pour l’intelligence artificielle » (surnommé « AI for humanity« ), le « Health Data Hub » (HDH) est un projet visant à centraliser l’ensemble des données de santé de la population française. Il est prévu que le HDH regroupe, entre autres, les données de la médecine de ville, des pharmacies, du système hospitalier, des laboratoires de biologie médicale, du dossier médical partagé, de la médecine du travail, des EHPAD ou encore les données des programmes de séquençage de l’ADN [1].

Le HDH se substitue à une structure existante, le Système National de Données de Santé, avec deux principales modifications : un large élargissement des données collectées et un accès facilité, en particulier pour le secteur privé (GAFAM, « medtechs », startup, assureurs…), à ces dernières. A noter que les décrets officialisant les critères de sélection des projets ayant accès aux données ne sont toujours pas parus. Son objectif est donc, via leur centralisation, de faciliter l’utilisation de nos données de santé par le plus grand nombre d’acteurs de manière à, selon ses promoteurs-rices, « faire de la France un pays leader de l’intelligence artificielle » [2].

Ce projet, mené sans réelle concertation publique, est au centre de nombreuses controverses. Le choix du gouvernement de confier son hébergement à Microsoft, dans l’opacité la plus totale et malgré un avis particulièrement sévère de la CNIL, a soulevé de nombreuses protestations. Alors même que les critiques s’intensifiaient, le gouvernement a profité de l’état d’urgence sanitaire pour accélérer son développement, décision qui fut attaquée en justice par le collectif Interhop. Edward Snowden lui-même a pris position contre ce projet en dénonçant une capitulation du gouvernement devant « le cartel du Cloud ».

Sans remettre en question le droit à l’accès aux données médicales à des fins de recherche publique, ce texte se propose d’interroger les ressorts idéologiques du HDH et la vision du système de santé qu’il traduit, en l’inscrivant dans le contexte plus large de l’utilisation grandissante des techniques d’Intelligence Artificielle (IA) dans notre société. En effet, du système éducatif et social à la justice, en passant par la police, l’agriculture ou la santé, aucun domaine n’est aujourd’hui épargné. Alors que l’introduction de cette technologie est présentée comme inéluctable, et le recours à celle-ci comme intrinsèquement un progrès, les risques associés à son recours à outrance dans nos sociétés sont nombreux : déshumanisation [3], perte d’autonomie [4], usage contre les intérêts des patients, et, comme souvent lors de la création de nouvelles bases de données, une surveillance accrue [5]…

Aux origines du HDH : le rapport Villani ou l’IA fantasmée

La création du HDH fut initialement proposée dans le rapport Villani, publié en 2018. C’est sur la base de ce dernier que s’est construite la stratégie gouvernementale en matière d’IA.

Sa lecture permet d’appréhender la vision que se fait l’État des enjeux posés par l’IA, son positionnement par rapport à ces derniers et les risques que cette politique implique en terme de protection des données personnelles, tout particulièrement dans le domaine de la santé.

L’IA : « Une chance inouïe d’accélérer le calcul réservé à Dieu »

C’est en ces termes[6] qu’Emmanuel Macron, évoquant la philosophie de Leibniz[7], introduit le discours qu’il prononce à l’occasion de la publication du rapport Villani. L’IA, ajoute-t-il, « nous donnerait la capacité de réaliser nous-mêmes » le calcul du « meilleur des mondes possibles » que le philosophe réserve à Dieu. Selon lui, grâce à cette technique, nous serons bientôt en mesure de « parcourir beaucoup plus rapidement les chemins du malheur pour choisir le bon chemin […] plus tôt et […] plus rapidement » [6].

On retrouve ici toute la fascination exercée par les technologies, et l’informatique en particulier, sur nos dirigeant-e-s. Pour Jacques Ellul [8], ce sont d’ailleurs les politiques qui « paraissent plus que tous autres fascinés par cet instrument fabuleux », parce qu’ils-elles se trouvent « enfin maître(s) d’un instrument d’une puissance absolue » grâce auquel « tout va devenir possible ».

Après l’informatique, c’est donc à l’IA d’entretenir le mythe d’une technologie révolutionnaire et salvatrice. Comme l’écrivait André Vitalis en 1981 [9], l’IA et l’informatique sont des domaines si vastes que « dès lors, toutes les spéculations sont possibles, et à la place d’une appréciation raisonnée des possibilités de la machine, on est en présence d’une croyance à priori, en un pouvoir assez général ». Il ajoute à ce sujet que « ceci définit parfaitement une croyance magique ».

Une politique au service de finalités impensées

Cette fascination de nos dirigeant-e-s pour l’IA les empêche de prendre le recul nécessaire pour penser l’intégration de cette technique au sein d’un projet politique. Le rôle de l’Etat se limite à mettre tous les moyens à sa disposition pour préparer la France à « la révolution promise par l’IA », la faciliter, et ce, sans jamais questionner ni ses finalités ni ses moyens.

Ainsi, le rapport Villani plaide pour une véritable « transformation de l’Etat » et préconise d’adapter tant la commande publique que nos lois ou l’organisation de nos systèmes de santé et éducatif afin de lever les « freins » au développement de l’IA, « libérer la donnée » et « faire émerger une culture commune de l’innovation » [10]. Le cœur du rapport s’attache uniquement à préciser les actions à réaliser pour que la société s’adapte aux besoins techniques de l’IA.

Dans le même temps, la question de la limitation et de l’encadrement des usages de cette technologie y est quasi absente, tout comme la définition d’objectifs précis auxquels pourraient répondre une politique publique centrée autour de quelques grands projets de recherche publique. Ceux affichés par le « plan national pour l’IA » sont au contraire très vagues : permettre à la France de trouver une place parmi les « leaders » de ce domaine, ou encore « construire la véritable renaissance dont l’Europe a besoin » [6]

Il s’agit dès lors pour le pouvoir, non pas de questionner l’IA, mais de trouver de quels avantages dispose la France pour concurrencer les puissances dominantes (GAFAM, États-Unis, Chine) dans ce domaine. En se plaçant dans une logique concurrentielle, l’État embrasse implicitement le modèle défini par ces dernières et soustrait au débat public le choix de nos orientations technologiques.

Nos données de santé : un « avantage compétitif »

Les implications de ce choix vis-à-vis du HDH apparaissent rapidement. Comme Cédric Villani le précise [10] : « La situation actuelle est caractérisée par une asymétrie critique entre les acteurs de premier plan – les GAFAM […] – qui ont fait de la collecte et de la valorisation des données la raison de leur prééminence ; et les autres – entreprises et administrations – dont la survie à terme est menacée » .

Dans cette course à l’IA, l’État semble aujourd’hui dépassé par les GAFAM et les prodigieuses quantités de données qu’elles ont accumulé. A un tel point que Cédric Villani juge son existence mise en péril…

Toutefois, le rapport Villani se veut rassurant : si « le premier acte de la bataille de l’IA portait sur les données à caractère personnel » , et a été « remportée par les grandes plateformes » , le second acte va porter sur les « données sectorielles », dont le secteur de la santé est un parfait exemple. Or « c’est sur celles-ci que la France et l’Europe peuvent se différencier ».

Comment ? Grâce aux données à disposition de l’Etat français : celles collectées pour le développement de la sécurité sociale [11]. Comme l’explique clairement Emmanuel Macron : « Nous avons un véritable avantage, c’est que nous possédons un système de santé […] très centralisé, avec des bases de données d’une richesse exceptionnelle, notamment celle de l’Assurance-maladie et des hôpitaux ».

Tout est dit : pour que la France trouve sa place sur le marché de l’IA, l’État doit brader nos données de santé.

Un système de santé déshumanisé

Si le HDH est donc présenté comme un moyen de permettre à notre industrie nationale de « jouer un rôle de premier plan au niveau mondial et concurrencer les géants extra-européens » [10], il s’inscrit dans une vision plus globale d’un système de santé toujours plus quantifié et automatisé. Le rapport Villani permet en effet d’en cerner les contours : un système médical transformé pour être mis au service de l’IA, le recul des rapports humains, une médecine personnalisée basée sur l’exploitation à outrance de données personnelles et le transfert de la gestion de nouveaux pans de notre vie à des algorithmes opaques et privés.

« Hospital as a Platform » : Le corps médical au service de l’IA

L’ « Hospital as a Platform »[10], c’est ainsi que l’hôpital est désigné par le rapport Villani. Les lieux de soins y sont perçus comme de simples plateformes de données, des fournisseurs de matières premières pour les algorithmes des « medtechs ». Au delà de la violence d’une telle vision de notre système de soin, « producteur de données » [10], cela entraîne des conséquences directes tant pour le corps médical que pour la pratique de la médecine.

Puisque « les données cliniques renseignées par les médecins sont des sources d’apprentissage permanentes des IA », il devient « nécessaire que les professionnels de santé soient sensibilisés et formés pour encoder ces informations de manière à les rendre lisibles et réutilisables par la machine » [10].

Ainsi, jusqu’à présent, les soignants produisaient majoritairement des informations destinées à d’autres soignant-e-s et/ou patient-e-s. La quantification de chaque soin, introduite par la réforme de la T2A (tarification à l’activité) en 2003, avait déjà radicalement changé le rapport du soignant-e à la patient-e, tout en impactant les décisions médicales. Mais aujourd’hui c’est désormais l’ensemble de la production du personnel médical qui sera destiné à la machine. En inscrivant les relations patient-e/soignant-e dans des processus de rationalisation et de normalisation informatique, c’est le système lui-même que l’on déshumanise.

On renforce par ailleurs la charge de travail et les contraintes bureaucratiques du personnel médical, transformé à son tour en « travailleur-se du clic » pour reprendre l’expression d’Antonio Casilli [16], deux préoccupations au centre des récents mouvements de protestations [13] dans les milieux hospitaliers.

Marchandisation des données de santé

La stratégie gouvernementale prévoit la mise en place d’incitations fortes de manière à ce que le corps médical accepte ce changement de paradigme. Plusieurs pistes sont avancées :

Le rapport de préfiguration du HDH [14] indique par exemple que « les financements publics devraient être systématiquement conditionnés à la reconnaissance et au respect du principe de partage ». Un établissement médical refusant de partager les données de ses patient-e-s avec le HDH pourrait ainsi se voir ainsi privé de fonds.

Mais le coeur de la stratégie se veut plus doux. Il repose sur la rémunération des producteurs de données (hôpitaux, Ehpad, laboratoires…) par les utilisateurs-rices du HDH. Car comme le précise la mission de préfiguration, nos données de santé ont « un fort potentiel de valorisation économique » qui « se concentre principalement autour des industriels de santé, laboratoires pharmaceutiques et medtech » [14]. Ce que propose ainsi le rapport de préfiguration du HDH n’est rien de moins qu’une marchandisation de nos données de santé.

La mission de préfiguration rappelle par ailleurs qu’il sera nécessaire de « procéder à la large diffusion d’une culture de la donnée », afin de lever les freins culturels au développement de la technologie. Cette culture devra être infusée tant au niveau des responsables médicaux que des patients eux-mêmes. Et d’ajouter : « N’attendons pas d’être souffrants pour épouser cet état d’esprit » [14] …

Aujourd’hui pourtant, cette « culture de la donnée » française et européenne repose sur plusieurs textes tels la loi informatique et libertés de 1978 ou le RGPD (2018), qui visent au contraire à protéger cette donnée, et particulièrement la donnée de santé, dite « sensible » au même titre que l’orientation politique ou sexuelle. Maintenant que le contexte technique permet une analyse extrêmement pointue de ces données, il faudrait donc cesser de la protéger ?

« Deep Patient » : Du smartphone aux laboratoires d’analyses médicales

Pour Cédric Villani, les capteurs individuels de santé permettraient de participer à l’amélioration des outils d’IA, glissant vers une médecine individualisée à l’extrême, se basant sur la collecte d’une quantité toujours plus importante de données personnelles. Une médecine dans laquelle, selon lui, « le recueil des symptômes ne se fait plus seulement lors de la consultation de son médecin, mais à travers un ensemble de capteurs intégrés à l’individu (objets de « quantified self », apps de santé sur le smartphone, véritable « laboratoire d’analyses médicales distribuées ») ou à son environnement » [10].

Ce qu’évoque ici le rapport Villani, c’est le rêve d’une mesure de chaque aspect de notre vie (sommeil, alimentation, activité physique…), idéologie portée par le mouvement né aux Etats-Unis dit du « quantified self » [15]. Rêve accessible grâce à ces smartphones à qui incombe la responsabilité de collecte des données. Il est ainsi précisé que le « suivi en temps réel du patient et des traces qu’il produit » permet de « retracer une image précise du patient », constituant ce que le rapport désigne par l’expression de « deep patient » [10].

Le modèle proposé est donc celui de la délégation de notre système de santé à des applications se basant sur des algorithmes développés par le secteur privé, grâce aux données du HDH. La consultation de FAQ remplace petit à petit les consultations médicales, trop onéreuses et inefficientes, pendant qu’un avatar électronique remplace la médecin de famille.

Aucun recul n’est pris par rapport aux risques qu’engendre une privatisation croissante de notre système de santé. Aucune critique n’est faite du modèle économique des GAFAM basé sur la prédation des données personnelles. Il s’agit au contraire pour l’état d’accentuer le mouvement initié par ces derniers, de les concurrencer.

Se dessine alors une médecine personnalisée à l’extrême, atomisée, où la machine est reine et les interactions avec le corps médical marginalisées. Une médecine dans laquelle les questions collectives sont poussées en arrière plan et dans laquelle des pans entiers de notre système de santé sont délégués au secteur du numérique.

Conclusion

Nous refusons que nos données de santé soient utilisées pour la construction d’une médecine déshumanisée et individualisée à l’extrême. Nous refusons qu’elles servent à l’enrichissement de quelques structures privées ou à l’apparition de GAFAM français du domaine de la santé. Nous refusons qu’elles participent à l’avènement d’une société du « Quantified Self » dans laquelle la collecte de données personnelles de santé serait favorisée et valorisée. Nous refusons enfin une société où notre système de soin deviendrait un auxiliaire au service de technologies dont la place n’a pas fait l’objet d’un débat public.

Nous demandons donc :

– L’arrêt du développement du HDH, dans l’attente d’une remise à plat de ses objectifs et son fonctionnement ;
– L’arrêt du contrat d’hébergement conclu avec Microsoft ;
– Un changement de paradigme faisant de l’accès aux données de santé de la population française par le secteur privé l’exception plutôt que la norme.

[1]: Pour une liste exhaustive, se reporter à la Partie 5 « Patrimoine de Données » du Rapport de la mission de préfiguration du HDH : https://solidarites-sante.gouv.fr/IMG/pdf/181012_-_rapport_health_data_hub.pdf
[2]: https://www.aiforhumanity.fr/
[3]: Les films « Moi, Daniel Blake » ou « Effacer l’historique » offrent une belle, et triste, illustration d’un système social informatisé et bureaucratisé jusqu’à en perdre toute humanité
[4]: Voir à ce sujet « La liberté dans le coma » du Groupe Marcuse/ Sushana Zuboff
[5]: Voir à ce sujet le projet Technopolice: www.technopolice.fr
[6]: Discours prononcé le 29 mars 2018 par Emmanuel Macron à l’occasion de la publication du rapport Villani accessible ici
[7]: Macron évoque ici les réflexions de Leibnitz, philosophe du dix-septième siècle autour de la question suivante: « Si Dieu est omnibénévolent, omnipotent et omniscient, comment pouvons-nous rendre compte de la souffrance et de l’injustice qui existent dans le monde? » (citation wikipedia)
[8]: Lire à ce sujet le chapitre préliminaire du livre ‘Informatique, Pouvoir et Libertés’ d’André Vitalis et sa préface écrite par Jacques Ellul
[9]: « Pouvoir et Libertés », André Vitalis, Chapitre préliminaire,
[10]: Rapport Villani, accessible ici p.196
[11]: Sur le développement conjoint, et les besoins en matière de collecte de données, de l’état policier et de l’état providence, voir « La liberté dans le Coma », p57-75
[12]: Sur le concept de « travailleurs du clic », voir le livre « En attendant les robots. Enquête sur le travail du clic » d’Antonio Casili.
[13]: Voir par exemple cet article de Libération ici
[14]: Mission de préfiguration du HDH. Rapport disponible ici
[15]: Pour plus de détail sur ce mouvement, voir la page wikipedia ainsi que le chapitre 7 du livre « To Save Everything, Click Here: The Folly of Technological Solutionism » d’Evgeny Morozov.
[16]: Voir « En attendant les robots. Enquête sur le travail du clic. » d’Antonio A. Casilli.


Le Sénat doit s’opposer à la reconnaissance faciale des masques

Mon, 15 Mar 2021 13:48:44 +0000 - (source)

Le 10 mars 2021, le ministre des transports M. Djebbari a autorisé par décret les gestionnaires de gares, de métro et de bus à déployer sur leurs caméras de surveillance des logiciels de détection de masque, prétextant un besoin statistique dans la lutte contre le Covid.

Ce décret est illégal : d’abord, seul le Parlement aurait le pouvoir d’autoriser un tel traitement, par exemple dans la loi Sécurité Globale actuellement débattue. Surtout, un débat démocratique aurait fait apparaître que cette surveillance, en plus d’être une atteinte supplémentaire à nos libertés, est inutile et donc injustifiable.

Le gouvernement a préféré contourner le Parlement et la loi en passant par décret, remettant entièrement en cause l’autorité du pouvoir législatif. Le Sénat doit contenir cette offensive anti-démocratique en adoptant l’amendement de la loi Sécurité globale qui propose un moratoire de 2 ans pour tout système d’analyse d’image automatisée.

Nous manifesterons pour cela devant le Sénat mardi 16 mars à 16h, square Poulenc à Paris, le jour où commenceront les débats en séance publique sur cette loi.

Un décret pour une start-up

Le 6 mai 2020, profitant de la panique sanitaire, la start-up française Datakalab avait tenté un coup d’éclat médiatique en offrant à la RATP, l’exploitant des transports parisiens, un logiciel de détection de masque déployé dans la station de métro Châtelet. Si l’opération avait réussi à faire parler de Datakalab, elle avait aussi attiré la CNIL qui fit savoir que ce dispositif était illégal pour défaut d’encadrement juridique. Dans ces conditions, avoir déployé ce logiciel constituait un délit puni de 5 ans de prison. Le logiciel a donc été remballé le 12 juin (le tout sans qu’aucune poursuite pénale ne soit engagée).

Ensuite, la RATP et Datakalab ont manifestement cherché du soutien auprès du gouvernement afin de bricoler ce « cadre juridique » qui leur permettrait de poursuivre leur expérimentation. C’est ainsi que M. Djebbari a adopté le décret du 10 mars 2021, tout en saluant publiquement Datakalab, pour qui ce décret était clairement pris. En retour, Datakalab remerciait le ministre dans une franchise symptomatique des sociétés autoritaires.

Difficile de savoir exactement pourquoi M. Djebbari souhaite autoriser l’activité illégale d’une start-up, mais on peut au moins constater une chose : cela renforce la stratégie globale du gouvernement visant à éroder la large opposition populaire contre la surveillance biométrique en rendant celle-ci de plus en plus présente dans nos vies.

Le contenu du décret

Dans les grandes lignes, le décret se contente de décrire l’expérience menée illégalement par Datakalab en mai 2020, puis de l’autoriser. Désormais, les gestionnaires de gares, de métro et de bus peuvent installer sur leurs caméras de surveillance un logiciel qui comptera deux choses : le nombre de personnes filmées et le nombre parmi celles-ci qui portent un masque. Un pourcentage est donné pour des tranches d’au moins 20 minutes et le décret prétend pour l’instant que le logiciel ne pourra servir qu’à faire des statistiques en ne visant ni à punir ni à identifier les personnes ne portant pas de masque.

En pratique, c’est le visage de l’ensemble des personnes filmées qui sera évalué par un logiciel d’analyse automatisée. De façon assez classique en matière de surveillance, le consentement ne sera pas demandé et les personnes ne pourront pas s’y opposer.

Difficile de savoir si la RATP souhaitera retenter son aventure avec une start-up délinquante. On peut le supposer. Mais Datakalab pourra aussi prospecter d’autres villes, notamment Cannes où elle avait commencé à déployer ses premières démonstrations de force dans la vidéosurveillance automatisée. Dans tous les cas, la start-up gagnera en réputation et améliorera son dispositif en l’entraînant sur nos corps mis gratuitement à sa disposition, et il faut redouter que d’autres start-up ne lui emboitent le pas.

L’illégalité du décret

Deux arguments juridiques suffisent à comprendre que ce décret est illégal.

Premièrement, la loi (l’article L251-2 du code de la sécurité intérieure) liste de façon limitée les objectifs que les caméras de surveillance peuvent poursuivre (lutte contre les vols, les incendies, les agressions, etc). La loi ne liste pas l’objectif statistique poursuivi par le décret, qui est donc contraire au droit. Pour être légal, le décret aurait du être précédé par une modification de la loi pour y ajouter cette finalité statistique.

Ensuite, l’article 4 de la loi de 1978 et l’article 5 du RGPD, ainsi que la Constitution, exigent que toute mesure de surveillance soit « nécessaire » à la finalité qu’elle poursuit. Elle ne peut être autorisée que si l’objectif poursuivi ne peut pas être atteint par une mesure moins dangereuse pour les libertés. Dans notre cas, il n’est absolument pas nécessaire d’analyser constamment le visage de l’ensemble de la population afin de faire des statistiques. Un comptage réalisé par des humains et sur la base d’échantillons est un procédé aussi facile que fiable.

Surtout, à écouter M. Djebbari lui-même, un tel comptage, qu’il soit réalisé par des machines ou des humains, est largement inutile pour lutter contre le Covid puisque selon lui : « les transports en commun ne sont pas un lieu de contamination particulier », notamment car « le port du masque est totalement respecté dans ces lieux ». La nécessité de l’installation de caméras d’analyse de visages, autre critère juridique fondamental, fait donc clairement défaut.

Le Parlement contourné

On comprend que c’est précisément car cette mesure de surveillance est inutile pour lutter contre le Covid que le gouvernement a préféré passer par décret. En effet, il aurait eu bien du mal à convaincre le Parlement d’autoriser une mesure aussi inutile qu’impopulaire. Et pour cause, sous la pression populaire, le Sénat lui-même a déjà commencé à repousser ce type de surveillance.

Dans sa position adoptée le 3 mars, la commission des lois du Sénat a précisé que les drones ne devaient pas servir à faire de la reconnaissance faciale, a limité la façon dont les agents de sécurité des transports peuvent accéder aux caméras de surveillance et a rejeté un amendement visant à généraliser la reconnaissance faciale sur les caméras de surveillance.

Si ces trois positions sont bien en-deçà de ce que le Sénat devrait faire pour corriger la loi Sécurité Globale dans son ensemble (voir nos critiques), elles se révèlent suffisantes pour dissuader le gouvernement d’essayer d’obtenir l’autorisation du Parlement afin de déployer des logiciels de reconnaissance de masques. Il a donc acté de le contourner, afin de décider seul par décret. Le message est clair : le gouvernement n’a besoin ni de loi, ni de Parlement ni de la moindre légitimité démocratique pour repousser chaque fois davantage les frontières de la Technopolice.

Contenir l’offensive autoritaire

Le gouvernement a en effet pris l’habitude de se passer de l’autorisation du Parlement pour déployer sa Technopolice : autorisation de la reconnaissance faciale massive en 2012 dans le fichier TAJ, centralisation des visages de toute la population dans le fichier TES, déploiement de caméras par hélicoptères et par drones, fichage politique des militants dans les fichiers PASP et GIPASP… 

Certes, aujourd’hui, suite à notre victoire au Conseil d’État, le gouvernement se retrouve obligé de demander au Parlement d’autoriser les caméras mouvantes dans la loi Sécurité Globale. Mais pour le reste, il a continué d’usurper le pouvoir législatif en autorisant des mesures de surveillance qui auraient du faire l’objet d’un débat démocratique puis être soumises au vote du Parlement, qui aurait probablement conclu au rejet de ces mesures injustifiables. Tant que personne ne l’arrêtera, le gouvernement continuera encore et encore à s’accaparer le pouvoir législatif tant les ambitions sécuritaires qu’il s’est fixé pour les Jeux Olympiques de 2024 sont immenses.

Le devoir du Parlement est d’obliger fermement le gouvernement à revenir devant lui chaque fois qu’il souhaitera étendre ses appareils de surveillance. Au Sénat, la gauche a proposé un amendement qui irait précisément dans ce sens en suspendant par principe et pendant 2 ans toute nouvelle extension des systèmes de vidéosurveillance. 


Sauf à renoncer à son rôle démocratique, le Sénat doit impérativement adopter cet amendement. S’il n’en fait rien, nous devrons probablement pallier la démission du Parlement en attaquant nous-même ce décret devant le Conseil d’État. Et puisque le Parlement n’a pas encore envisagé de léguer son budget aux nombreuses associations qui reprennent son rôle de contre-pouvoir, n’oubliez pas de nous soutenir si vous le pouvez !


Powered by VroumVroumBlog 0.1.31 - RSS Feed
Download config articles