Résumé
À l'heure où l'homme le plus riche du monde s'est offert le réseau social Twitter et alors que le parlement européen s'échine à encadrer le fonctionnement des plateformes avec des textes comme le DSA, quel sera l'avenir du web ? Le web 3.0 pourrait-il être un web des communs ?
avec :
Benjamin Bayart (Cofondateur de la Quadrature du Net, co-président de la fédération des Fournisseur d’Accès à Internet associatifs (FFDN)).
En savoir plus
Dans cette émission, François Saltiel s’intéresse au Web 3 ou plus exactement à ce que l’on présente comme l’avenir de l’Internet avec son lot d’utopies et de belles promesses. Un web qui se veut plus décentralisé et inclusif. Un Web où la blockchain pourrait jouer un rôle majeur.
Nous allons donc essayer de le définir tout en faisant le bilan du Web 2, soit l’internet marchand gouverné par des GAFAM tout puissant. Une réflexion qui s’inscrit à l’heure du rachat de Twitter par un milliardaire et d’une volonté européenne de régulation avec à la clef le DSA (Digital Services Act) et le DMA (Digital Market Act).
Une émission réalisée en partenariat avec le magasine Usbek & Rica dont le prochain numéro sera consacré, entre autres sujets, à « l’internet co-propriétaire ».
Comment internet peut-il redevenir un bien commun ? Vaste question, à laquelle vont tenter de répondre deux invités : Spideralex, sociologue, docteure en économie sociale et Benjamin Bayart, co-fondateur de la Quadrature du net.
Le désenchantement du web 2.0
Le web 2.0 est le web social de la conversation, des réseaux sociaux qui s’est totalement métamorphosé avec l’introduction des GAFAM, en quête de rentabilité. Benjamin Bayart, qui milite pour un internet décentralisé et plus éthique, dénonce le web 2.0 et son fonctionnement : "Tous les gens qui vous fichent et qui vous manipulent en permanence dès lors qu’ils saisissent vos données personnelles et les utilisent pour proposer des publicités ciblées sous forme de profilages de contenus ou sous forme de bulles de filtres, saccagent le monde et le bien commun. Ça ne coûte rien et ça leur rapporte quelque chose. Cela crée un dommage important, mais ce n'est pas eux qui le payent."
Le web 2.0 représente aussi un danger pour certains. Spideralex, sociologue, explique que toute utilisation numérique génère des traces personnelles qui nous identifient et qui nous mettent en danger dans la vie matérielle et physique. "Cela veut dire que certaines catégories sociales, les femmes, les minorités, mais aussi les militants, les défenseurs des droits de l'homme, paient un prix plus élevé. Le web 2.0, la centralisation de l’internet et les plateformes des réseaux sociaux ont facilité la normalisation de ces outils pour traquer, harceler, criminaliser ou censurer certains profils. Donc c'est cela qu'on associe aussi avec la fin de l'utopie de l'internet."
Des solutions pour lutter contre la centralisation d’internet
L'ère des GAFAM aurait-elle signé la mort de nos vies privées ? Pour beaucoup d'observateurs, la centralisation qui caractérise le fonctionnement du web 2.0 a entraîné une généralisation de la surveillance des citoyens par quelques grandes entreprises. Si la promesse du web 3.0 repose en partie sur les perspectives de contournement de cette surveillance de masse grâce à la blockchain, des modèles décentralisés et sécurisés existent déjà, c'est ce qu'explique le co-fondateur de la Quadrature du Net, Benjamin Bayart : "Il y a peu de temps, la Commission Européenne a ouvert un serveur sur le réseau social qui s'appelle Fediverse, qu’on connaît sous le nom de Mastodon. Ils ont créé un serveur qu'ils ont connecté au réseau des quelques milliers de serveurs qui constituent ce réseau-là, qui est une sorte d'alternative à Twitter, YouTube, mais sur un modèle extrêmement différent. Ces serveurs peuvent être développés par des groupes cyberféministes, trans et où les militants se retrouvent entre eux, fixent les règles du jeu et peuvent se protéger collectivement des différents groupes et ont le choix de s'interconnecter avec qui ils le souhaitent. Cela amène un modèle beaucoup plus proche de ce qu'est internet : décentralisé, plus compliqué à contraindre et qui n'est pas facile à acheter.”
Pour participer à la décentralisation d’internet, Spideralex a aussi contribué à la création d’un serveur intitulé Anarca. “Cela fait partie des efforts de souveraineté technologique dans laquelle on construit nos propres infrastructures. C'est un serveur qui a été créé il y a des années et on est plusieurs administratrices à le développer dans différents pays du monde. Ce que l'on souhaitait, c'est apprendre à administrer un serveur. Depuis, on donne des services, on a des contenus pour différents collectifs féministes à travers le monde et on travaille avec d'autres serveurs féministes. Ce n'est pas du même niveau qu'un service offert par les GAFAM, mais ce n’est pas basé sur la vente et la collecte des données personnelles. C'est une solution beaucoup plus respectueuse des possibilités que nous offre Internet et de ce qu'offre le Web.”
https://anarchaserver.org/
Pour ce qui est du web 3.0, qui nourrit beaucoup de promesses et qui est perçu comme le début d’une nouvelle ère, la sociologue Spideralex relativise la révolution annoncée : "Je ne vois pas de solution qui soit offerte, ni techniquement ni socialement par les développeurs du web 3.0. J’observe que le web 3.0 reste lié à un corpus de personnes qui sont très privilégiées et qui ne font pas face à des vraies problématiques sociales et politiques. Il y a très peu de diversité dans ces communautés de développeurs, donc ils ne peuvent pas vraiment développer des solutions inclusives qui réfléchissent à ces questions là.”
Les invité(e)s
Spideralex, sociologue, docteure en économie sociale et co-fondatrice du collectif cyberféministe Donestech
Benjamin Bayart, co-fondateur de la Quadrature du net, Président de la Fédération des FDN associatifs et militant pour la neutralité du web et le logiciel libre
Résumé
Qu'appelle-t-on une "safe city" ? En quoi les dispositifs de reconnaissance faciale peuvent-ils représenter une menace pour nos libertés ? Comment ces technologies reconfigurent-elles notre rapport à la ville ?
avec :
Anne-Sophie Simpère (Chargée de plaidoyer Libertés à Amnesty International France), Olivier Tesquet (Journaliste), Antoine Picon (architecte, ingénieur, professeur au Laboratoire Techniques, Territoires et Sociétés).
En savoir plus
Dans cette émission, François Saltiel propose de s’intéresser à la question de la surveillance des foules dans nos villes. Comment les technologies participent-elles à la réalisation des « Safe Cities », un dérivé des « smart cities », soit ces villes que l’on dit intelligentes et qui devraient encore plus nous héberger dans le futur.
Mais le présent, c’est l’affaire du stade de France: une débâcle sécuritaire, encore trouble, qui a relancé les débats sur les outils et moyens d’une surveillance étatique.
En parlant de sport, on pense aussi aux JO qui se dérouleront en 2024 à Paris. Cet événement va-t-il se transformer en laboratoire grandeur nature pour l’industrie sécuritaire ? De la reconnaissance faciale aux drones de surveillance, où en sommes-nous de l’usage de ces dispositifs et quid de nos libertés ?
Des questions passionnantes avec Olivier Tesquet, journaliste spécialiste des questions numériques à Télérama et auteur de Etat d’urgence technologique (Ed. Premier parallèle, 2021), Anne-Sophie Simpere, responsable plaidoyer libertés à Amnesty International et co-autrice de Comment l'Etat s'attaque à nos Libertés (Ed. Plon, 2022) et Antoine Picon, architecte, ingénieur, professeur au Laboratoire Techniques, Territoires et Sociétés, pour y répondre !
Les invité(e)s :
Olivier Tesquet, journaliste spécialiste des questions numériques à Télérama et auteur de Etat d’urgence technologique (Ed. Premier parallèle, 2021)
Anne-Sophie Simpere, responsable plaidoyer libertés à Amnesty International et co-autrice de Comment l'Etat s'attaque à nos Libertés (Ed. Plon, 2022)
Antoine Picon, architecte, ingénieur, professeur au Laboratoire Techniques, Territoires et Sociétés
Une émission en partenariat avec Numerama. Retrouvez chaque semaine les chroniques de Marie Turcan et Marcus Dupont-Besnard.
Après la crise sanitaire, la crise énergétique va-t-elle rythmer le monde ? Enjeux et pistes de réponses avec Guillaume Pitron.
Entre la réunion des ministres de l’Union européenne organisée hier pour apporter des réponses à la hausse du prix de l’électricité et le rassemblement lundi prochain des États de la COP26 pour réfléchir à la transition écologique, la question de la crise énergétique est sur toutes les lèvres.
Outre les débats pour ou contre le nucléaire, c’est l’efficacité des énergies renouvelables qui est en jeu en termes de production mais aussi de coût. La crise énergétique semble donc devoir se résoudre à travers l’investissement et les innovations. Entre alors en jeu le potentiel du numérique, qui, moins immatériel qu’on ne le pense, est loin d’être vertueux écologiquement.
Toutes les pistes pour réduire les émissions de gaz à effet de serre sont-elles dès lors bouchées ? Comment dépasser les limites des énergies renouvelables et limiter les effets négatifs du numérique ? Pour en parler nous recevons Guillaume Pitron, journaliste et auteur de L'enfer numérique. Voyage au bout d'un like (Les Liens qui libèrent, 2021) et La guerre des métaux rares : La face cachée de la transition énergétique et numérique (Les Liens qui libèrent, 2018).
Un virtuel bien trop réel
Avec votre enquête, on se rend compte que le virtuel est en fait très réel. Pour reprendre le sous-titre de votre livre, quel trajet suit un "like" ?
Internet est présenté comme virtuel, et le Covid a montré à quel point c'était important de pouvoir travailler, communiquer à distance. C'est un grand récit du capitalisme : nous allons pouvoir continuer à nous développer grâce à un découplage que permet le numérique. L'objet de mon enquête est de montrer qu'il n'y a rien de virtuel dans ce monde numérique. Un like ne va pas d'un téléphone à un autre : il parcourt la planète entière, mobilise toutes les infrastructures d'Internet, des câbles sous-marins, des antennes 4G, des box Wi-Fi, et des centres de données (data centers) par lesquels transite l'information. Or dans les centres de données, il y a des serveurs qui chauffent à 60 degrés. On les refroidit soit artificiellement, soit au Pôle Nord pour consommer moins d'électricité.
Plus on va vers un monde virtuel, plus on va vers un monde matériel. Plus on va vers un monde "dématérialisé", plus on va vers un monde matérialiste. Il va donc bien falloir que des Etats s'organisent pour sécuriser les ressources d'un monde toujours plus impalpable.
Le monde sans sommeil des centres de données
A quoi ressemblent ces data centers ? Vous évoquez des espaces gigantesques, qui donnent une représentation concrète du virtuel.
Il faut savoir qu'il y a trois millions de data centers sur terre. Cela ressemble souvent à un immense hangar : celui de Facebook se trouve au Nord de la Suède. Quand on y rentre, on voit d'immenses rangées cernées d'armoires, et ce qui est impressionnant, c'est le son, comparable à celui d'une véritable ruche : on est assailli par le son strident d'Internet.
Et c'est un son qui ne s'arrête jamais : on a affaire à une dépense d'énergie continue.
Le soleil ne se couche jamais sur Internet, car nous sommes drogués à cet outil : nous voulons surfer 24h/24. Récemment, la panne de Facebook, d'une durée de six heures, était d'une durée cataclysmique. Contre cela, il faut ce qu'on appelle la continuité de service : un autre centre de données doit prendre le relais de celui qui s'éteint. Un compte Gmail se trouve dans six endroits différents de la planète. Il y a une réplication de l'information pour satisfaire l'internaute pressé.
L'illusion politique du découplage
On imagine que la COP26 va se pencher sur l'impact toujours plus grand du numérique sur la planète ? Aujourd'hui, 10% de la consommation d'énergie proviendrait du numérique.
Non, car cela va être présenté comme une solution, ce découplage entre nos modes de vie et l'environnement. On a l'impression qu'on va gagner plus en produisant moins.
Un calcul difficile
Il y a peut-être des dépenses énergétiques que l'on ne fait pas : quand on fait une réunion Zoom, on ne consomme pas l'énergie que l'on prendrait avec l'avion ou la voiture. Quand on parle de 10% de l'énergie, est-ce une dépense nette ou pourrait-on retrancher tout ce que l'on ne fait pas grâce à Internet ?
Absolument, et il faut parler de ce qu'Internet nous permet d'économiser : si j'annule une conférence à New York où je devais aller en avion et que je la fais sur Zoom, le gain est colossal. Mais le problème, c'est qu'il y a de nouveaux usages, que la 5G permet notamment. La question, c'est celle du solde, que personne ne connaît. Aujourd'hui, il y a des rapports financés par l'industrie numérique, qui est juge et partie dans l'histoire et qui a les moyens financiers de produire ces rapports pour dire qu'Internet va massivement nous aider à réduire l'impact environnemental des activités humaines. Inversement, le Shift Project va quasiment dans le sens inverse : Internet pollue encore plus que cela ne permet d'économiser. En réalité, on ne sait pas : Internet, c'est encore la jungle. On ne connaît pas le coût d'un email, ni d'un like. Sans doute parce qu'on n'a jamais voulu savoir.
On parle aujourd'hui du triomphe boursier de la Tesla, mais en quoi faut-il prendre conscience des externalités négatives que représentent les métaux rares nécessaires à sa production ?
Il faut bien des métaux pour fabriquer la batterie des voitures électriques, et il faut les extraire quelque part. La voiture à zéro émissions, c'est seulement quand on en roule : en fait, on délocalise la pollution. On découple la pollution de la phase d'utilisation. C'est comme la smart city : moins de pollution localement, mais plus hors des frontières.
Bibliographie :
L'enfer numérique : Voyage au bout d'un like, Guillaume Pitron, Les liens qui libèrent
La guerre des métaux rares, la face cachée de la transition énergétique et numérique, Guillaume Pitron, Les liens qui libèrent, 2018
Intervenants :
Guillaume Pitron : Journaliste, réalisateur.
Avec l'Affaire Snowden, le scandale Cambridge Analytica, ou encore les révélations des Spy Files par Wikileaks, j'ai pris conscience que mes activités sur internet étaient surveillées. J'ai beau le savoir, je ne fais pas grand-chose pour l'éviter. Dans ma tête, c'est comme si c'était le prix à payer pour aller sur internet. Je continue à poster mes coups de gueule sur Facebook, je consulte Twitter plusieurs fois par jour, je commande des pizzas sur internet et je fais des milliers de recherches sur google. Mais à cause de l'épidémie de Covid19, quasiment toute ma vie, sociale et professionnelle, passe par mon ordinateur ou mon smartphone. Depuis le premier confinement, les questions se bousculent dans ma tête sans que j'arrive à les ignorer : que sont les données numériques ? Que révèlent-elles sur moi ? Qui les surveille et à quoi peuvent-elles servir ? Dans quelle mesure cette surveillance numérique est-elle problématique ? J'ai donc retroussé mes manches et, armé de mes livres, mon micro et mon clavier, j'ai décidé de mener l'enquête pour comprendre ce qu'il en était.
Une série documentaire d'Antoine Tricot, réalisée par Rafik Zenine
Le 14 décembre 2020, le Conseil de l'Union européenne a adopté une résolution sur le chiffrement, dans laquelle il souligne la nécessité d'assurer la sécurité grâce au chiffrement et malgré le chiffrement.
Dans cette résolution, le Conseil insiste sur le soutien qu'il apporte au développement, à la mise en œuvre et à l'utilisation du chiffrement fort, y voyant un moyen nécessaire pour protéger les droits fondamentaux et la sécurité numérique des pouvoirs publics, des entreprises et de la société. Dans le même temps, le Conseil note qu'il faut veiller à ce que les autorités répressives et judiciaires compétentes « soient en mesure d'exercer leurs pouvoirs légaux, tant en ligne que hors ligne, pour protéger nos sociétés et nos citoyens ».
Les autorités répressives et le système judiciaire sont de plus en plus tributaires de l'accès aux preuves électroniques pour lutter efficacement contre le terrorisme, la criminalité organisée, la pédopornographie et toute une série d'autres formes de cybercriminalité et de criminalité facilitée par les technologies de l'information et de la communication. Un tel accès est essentiel au succès de la répression et de la justice pénale dans le cyberespace. Toutefois, dans certains cas, le chiffrement rend extrêmement difficile ou pratiquement impossible l'accès aux preuves et leur analyse.
L'UE s'efforce d'engager une discussion active avec le secteur des technologies, ainsi qu'en étroite concertation avec la recherche, le monde universitaire, les entreprises, la société civile et d'autres parties prenantes, afin de trouver un juste équilibre entre la poursuite de l'utilisation de technologies de chiffrement fort et le fait de veiller à ce que les pouvoirs des services répressifs et du système judiciaire s'exercent dans les mêmes conditions que dans le monde hors ligne. Les solutions techniques potentielles devront respecter la vie privée et les droits fondamentaux, tout en préservant les avantages que le progrès technologique apporte à la société.
Une menace pour le chiffrement
ProtonMail, Threema, Tresorit et Tutanota ont indiqué que
ProtonMail a indiqué que : « le Conseil de l'Union européenne a publié une résolution de cinq pages appelant l'UE à adopter de nouvelles règles pour régir l'utilisation du chiffrement de bout en bout en Europe. Nous nous opposons fermement à cette résolution car elle préfigure une attaque contre le chiffrement ».
ProtonMail n’était pas le seul service basé en Europe qui utilise le chiffrement de bout en bout à être alarmé par le virage soudain de l'UE contre la vie privée. Avec Threema, Tresorit et Tutanota, le service de messagerie a partagé la déclaration conjointe suivante :
« À l’occasion de la Journée de la protection de la vie privée, les services européens chiffrés de bout en bout ProtonMail, Threema, Tresorit et Tutanota appellent les décideurs politiques de l’UE à repenser les propositions formulées dans la résolution du Conseil de décembre sur le chiffrement.
« L’objectif déclaré du Conseil, à savoir "la sécurité par le chiffrement et la sécurité malgré le chiffrement » - et les portes dérobées au chiffrement que cela exigerait - menaceront les droits fondamentaux de millions d’Européens et saperont une évolution mondiale vers l’adoption du chiffrement de bout en bout. En réponse, ces quatre sociétés technologiques européennes de premier plan rejettent toute tentative d’utiliser des instruments juridiques pour violer la vie privée des citoyens et se mobilisent pour protéger les droits des personnes et des entreprises qui choisissent le chiffrement de bout en bout.
« Bien que cela ne soit pas explicitement indiqué dans la résolution, il est largement admis que la proposition vise à permettre aux forces de l'ordre d'accéder aux plateformes chiffrées via des portes dérobées. Cependant, la résolution crée un malentendu fondamental : le chiffrement est un absolu. Les données sont chiffrées ou non; les utilisateurs ont la confidentialité ou non. Le désir de donner aux forces de l'ordre plus d'outils pour lutter contre la criminalité est évidemment compréhensible. Mais les propositions sont l'équivalent numérique de donner aux forces de l'ordre une clé du domicile de chaque citoyen et pourraient commencer une pente glissante vers de plus grandes violations de la vie privée.
« Le passage sans précédent de l’année dernière au travail à distance a vu des dizaines de millions d’individus et d’entreprises se tourner vers des technologies telles que le chiffrement de bout en bout pour garantir leur sécurité numérique et leur confidentialité. Plus récemment, après que de plus en plus de personnes ont pris connaissance du partage de données WhatsApp avec Facebook, les utilisateurs passent en nombre record à des services chiffrés de bout en bout, axés sur la confidentialité. Partout dans le monde, des gens reprennent le contrôle de leur vie privée et ce sont souvent des entreprises européennes qui les aident à le faire. Il semble illogique que les décideurs politiques de l'UE poussent désormais pour des lois qui vont à l'encontre de l'opinion publique et sapent un secteur technologique européen en pleine croissance.
« La résolution a effectivement donné à la Commission européenne le feu vert pour commencer à préparer des propositions concrètes au cours des prochains mois. Mais, comme le soulignent ProtonMail, Threema, Tresorit et Tutanota, la Commission doit se rappeler que, d'un point de vue technologique, il est impossible de fournir un quelconque accès au contenu chiffré de bout en bout, même un accès ciblé dans un processus légal, sans affaiblir gravement l'ensemble du système. »
Les commentaires de ces sociétés
« Ce n’est pas la première fois que nous voyons une rhétorique anti-chiffrement émanant de certaines parties de l’Europe, et je doute que ce soit la dernière. Mais cela ne signifie pas que nous devons être complaisants », a déclaré Andy Yen, PDG et fondateur de ProtonMail, le service de messagerie suisse chiffré de bout en bout. « En termes simples, la résolution n'est pas différente des propositions précédentes qui ont généré une large réaction de la part d'entreprises soucieuses de la vie privée, de membres de la société civile, d'experts et de députés européens. La différence cette fois est que le Conseil a adopté une approche plus subtile et évité d’utiliser explicitement des mots tels que «interdiction» ou «porte dérobée». Mais ne vous y trompez pas, telle est l’intention. Il est important que des mesures soient prises maintenant pour éviter que ces propositions n'aillent trop loin et que les droits des Européens à la vie privée restent intacts ».
« Les entreprises s'appuient sur un chiffrement de bout en bout pour protéger leurs secrets commerciaux et leurs informations confidentielles. Les citoyens utilisent des applications qui suivent l'objectif de conception de connaissance zéro pour communiquer librement sans être suivis et monétisés et pour exercer leur droit statutaire à la vie privée. Les jeunes entreprises européennes sont désormais à la pointe de cette révolution technologique et de la protection des données. L’expérience montre que tout ce qui affaiblit ces acquis peut être et sera abusé par des tiers et des criminels, mettant ainsi en danger notre sécurité à tous. Avec l'abondance d'alternatives open source, les utilisateurs passeraient simplement à ces applications s'ils savaient qu'un service était compromis », a déclaré Martin Blatter, PDG de Threema, l'application de messagerie instantanée chiffrée de bout en bout. « Forcer les fournisseurs européens à contourner ou à affaiblir délibérément le chiffrement de bout en bout détruirait non seulement l'économie européenne des startups informatiques, mais ne fournirait même pas un peu de sécurité supplémentaire. Rejoignant les rangs des États de surveillance les plus notoires de ce monde, l'Europe abandonnerait imprudemment son avantage concurrentiel unique et deviendrait une friche pour la vie privée », a-t-il ajouté.
« Cette résolution compromettrait gravement la confiance croissante des particuliers et des entreprises dans les services chiffrés de bout en bout et menacerait la sécurité des utilisateurs qui souhaitent simplement partager des informations en toute sécurité ou tirer parti du chiffrement de bout en bout dans le cadre de la conformité à la protection des données. Nous trouvons cette résolution particulièrement alarmante compte tenu des vues précédemment progressistes de l’UE sur la protection des données. Le règlement général sur la protection des données (RGPD), le modèle mondialement reconnu de l’UE pour la législation sur la protection des données, préconise explicitement un cryptage fort en tant que technologie fondamentale pour garantir la vie privée des citoyens. Ces nouvelles propositions sont inconciliables avec la position actuelle de l'UE sur la confidentialité des données: les approches actuelles et proposées sont en contradiction totale les unes avec les autres, car il est impossible de garantir l'intégrité du cryptage tout en fournissant un quelconque accès ciblé aux données cryptées » a déclaré Istvan Lam, cofondateur et PDG de Tresorit, le service de synchronisation et de partage de fichiers chiffrés de bout en bout.
« Le chiffrement est l'épine dorsale d'Internet. Chaque citoyen de l'UE a besoin d'un chiffrement pour protéger ses données sur le Web et se protéger des attaquants malveillants. Avec la dernière tentative de chiffrement avec porte dérobée, les politiciens veulent un moyen plus simple de prévenir les crimes tels que les attaques terroristes tout en ignorant toute une gamme d'autres crimes contre lesquels le chiffrement nous protège. Le chiffrement de bout en bout protège nos données et nos communications contre les écoutes telles que les pirates informatiques, les gouvernements (étrangers) et les terroristes. En exigeant des portes dérobées de chiffrement, les politiciens ne nous demandent pas de choisir entre la sécurité et la confidentialité. Ils nous demandent de ne choisir aucune sécurité », a déclaré Arne Möhle, cofondateur de Tutanota, le fournisseur allemand de messagerie chiffrée de bout en bout.
Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme « terroriste » par la police, et ce sans intervention préalable d’un juge.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme « terroriste » par la police, et ce sans intervention préalable d’un juge.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
Interdite sur la voie publique en France, la reconnaissance faciale en temps réel fait malgré tout son chemin. Plusieurs municipalités testent des dispositifs qui s’en rapprochent, avant sa possible autorisation pour les Jeux olympiques de Paris en 2024.
Le nouveau marché de la reconnaissance faciale est évalué à sept milliards d’euros en France. Les Jeux de 2024, dont l’enjeu sécuritaire est très fort, ainsi que la Coupe du monde masculine de rugby en 2023, devraient être les laboratoires de ces technologies. "La filière industrielle française en matière de sécurité est en train de se positionner, analyse Félix Treguer, sociologue et fondateur de La Quadrature du net. Des sociétés comme Atos, Dassault Systèmes, Capgemini, sont en lien avec le ministère de l’Intérieur pour rafler les marchés publics autour des JO de 2024."
Plusieurs expérimentations à grande échelle ont déjà eu lieu ou sont programmées, comme à Nice, Cannes, Marseille... Avec une question centrale, celle du consentement des personnes. Pour le journaliste Olivier Tesquet, c’est par ces différentes expérimentations dans les communes que le terrain se prépare : "Ces municipalités se sont transformées en showrooms sécuritaires, analyse-t-il. À Valenciennes, Huawei offre des caméras de vidéosurveillance à la commune. À Nice et à Marseille, c’est l’américain Cisco qui a approché la région Provence-Alpes-Côte d'Azur pour l'installation de portiques de reconnaissance faciale à l'entrée des lycées. Le problème, c’est qu’il n’y'a pas d'appels d'offres, et les habitants sont assez cruellement sous-informés sur ces questions-là."
Lire l'enquête intégrale "Reconnaissance faciale : officiellement interdite, elle se met peu à peu en place," une enquête de Philippe Reltien, cellule investigation de Radio France :
https://www.franceinter.fr/reconnaissance-faciale-officiellement-interdite-elle-se-met-peu-a-peu-en-place
L'équipe :
Jacques MoninProducteur
Philippe ReltienEnquêteur
Christophe ImbertRéalisateur
Abdelhak El IdrissiJournaliste
Martin BroyerAttaché de production
Nicolas DewitChargé de programme web
Cellule investigation de Radio FranceProduction d'enquêtes à Radio France
Jean-Baptiste AudibertProgrammateur musical
Enquête | La reconnaissance faciale en temps réel n’est toujours pas autorisée en France. De nombreuses expérimentations ont pourtant déjà lieu, et des sociétés se positionnent, avec dans leur viseur les Jeux olympiques de Paris en 2024, et à la clé un marché de sept milliards d’euros.
Imaginez : le 26 juillet 2024. Les Jeux olympiques de Paris débutent. Une foule compacte se presse devant les grilles d’entrée du Stade de France. À l’entrée sud, une file semble avancer plus vite que les autres. En effet, certains spectateurs ont accepté que leur visage soit scruté et analysé par des caméras afin d’accéder plus rapidement aux lieux. C'est-ce que l'on appelle la comparaison faciale.
Ce futur hypothétique se prépare en France. Plusieurs expérimentations de ce type ont déjà eu lieu ou sont programmées. Avec une question centrale, celle du consentement des personnes.
Reconnaissance faciale : des expérimentations encadrées
En 2020, en France comme en Europe, la reconnaissance faciale en temps réel sur la voie publique n’est pas autorisée. Depuis 2012, seule la reconnaissance a posteriori est permise, notamment par la police, à l’aide du fichier de traitement des antécédents judiciaires (TAJ). D’après un rapport de l’Assemblée nationale publié en 2018, plus de 18 millions de personnes, dont 8 millions avec photos, sont recensées dans le TAJ.
C’est la CNIL (Commission nationale de l'informatique et des libertés) qui contrôle et rend un avis pour des expérimentations très encadrées. "Il y a un ensemble de règles qui s'appliquent, confirme Patrice Navarro, avocat au cabinet Hogan Lovells. Il faut qu'il y ait consentement des personnes, et que ce soit pour un motif particulièrement fort et proportionné d'intérêt public ou de sécurité publique."
Mais plusieurs exercices qui se rapprochent de la reconnaissance faciale ont déjà été effectués.
À Nice (Alpes-Maritimes), en février 2019, lors du carnaval, un logiciel israélien a permis d’identifier de supposés fichés S. Il s’agissait en réalité de volontaires figurants parmi des centaines de personnes consentantes, qui ont fourni leur photo, qui se savaient filmés et reconnus facialement.
Une autre tentative dans la même ville a fait polémique. Il s’agissait cette fois-ci d’analyser les émotions des passagers d’un tramway, sans les identifier, afin d'anticiper les problèmes potentiels. L’essai n’a finalement pas fonctionné à cause d’un problème technique de transmission d'images.
À Cannes (Alpes-Maritimes), pendant le confinement, la mairie a voulu vérifier si la population portait bien un masque en allant au marché. Pour cela, elle a fait appel à un prestataire, la start-up Datakalab. Un dispositif également installé dans la station de RER Châtelet-Les Halles à Paris.
Pour le directeur de Datakalab, Xavier Fischer, il ne s’agissait pas d’identifier les gens, mais seulement de compter les personnes portant un masque. Mais la CNIL n’a pas vu les choses ainsi. Elle a estimé que les personnes ne pouvaient exercer leur droit d’opposition puisqu'elles ne savaient pas qu’on analysait leur visage. Résultat, à Cannes, l’opération s’est arrêtée naturellement avec le déconfinement, et à Châtelet, la CNIL a mis un terme à l’essai.
À réécouter :
Hashtag > Jusqu'où ira la reconnaissance faciale ?
https://www.franceculture.fr/emissions/hashtag/jusquou-ira-la-reconnaissance-faciale
Un système prêt à être utilisé à Metz
A Metz (Moselle), l’avancée en la matière semble plus concrète. Après des débordements lors d’un match de Ligue 1 de football en 2016 contre Lyon, des supporters ont été interdits de stade. Comme l’autorise la loi Larrivé relative à la lutte contre le hooliganisme, le FC Metz a mis en place un fichier de ces supporters ultras avec leurs photos, et a investi dans un logiciel de reconnaissance faciale, prêt à être utilisé le cas échéant.
Des supporters se sont d’ailleurs demandé si ce logiciel n’a pas déjà été testé sur eux. Cette hypothèse a d’abord été émise par le journaliste Olivier Tesquet, dans son livre À la trace (Premier Parallèle, 2020). Ces supporters ont ensuite fait le rapprochement avec d’étranges consignes données un soir de match.
"Beaucoup d'entre eux ont dû retirer leurs lunettes, leurs casquettes ou leur écharpe à l’entrée du stade", raconte Pierre Barthélémy, avocat de l’Association nationale des supporters.
A-t-on vraiment testé la reconnaissance faciale en temps réel ce soir-là ? Guillaume Cazenave, directeur de la société messine Two-I, qui a vendu le matériel de vidéosurveillance au FC Metz, dit ne pas le savoir. "Nous ne sommes pas opérateur de système, se défend-il. À notre connaissance, il n'a pas été activé."
Du côté du club, on dément fermement avoir fait un test. La directrice du FC Metz, Hélène Schrub, a assuré par écrit à la cellule investigation de Radio France que la reconnaissance faciale n’avait été ni décidée ni testée, même si elle reconnaît que le projet existe et que le matériel le permet.
Des caméras qui ne s’intéressent pas qu’aux visages
À Marseille (Bouches-du-Rhône), la Cannebière est équipée d’une cinquantaine de caméras intelligentes. Elles ne reconnaissent pas formellement les gens, mais identifient des situations bien précises. "Ce projet a été mis en place 2019, détaille Felix Treguer, membre fondateur de l’association La Quadrature du net. Un algorithme d'analyse automatisée reconnaît des comportements et des événements suspects, et déclenche automatiquement des alertes et des suivis dans le centre de supervision."
Concrètement, il s'agit de repérer des objets abandonnés, des individus au sol, des taggeurs ou de la destruction de mobilier urbain. "Une fois que les caméras ont filmé et que les vidéos sont archivées, la police peut utiliser des filtres, complète Martin Drago, juriste pour La Quadrature du net, c’est-à-dire repérer des visages ou des silhouettes, pour identifier les personnes."
Des projets retoqués par la CNIL
Certaines communes ont tenté d’expérimenter d’autres dispositifs, tels que la reconnaissance sonore par exemple. C’est le cas à Saint-Etienne (Loire) où une filiale d’une société d’armement a proposé en 2019 à la mairie de coupler des caméras avec des micros pour identifier des bruits anormaux au sein d’un quartier sensible. "Les capteurs sonores peuvent déclencher une alerte qui permet l'envoi de drones automatiques pour voir ce qui se passe, décrit Martin Drago, avec ensuite la possibilité d’envoyer une patrouille humaine."
Ce projet a cependant été retoqué par la CNIL. Elle a considéré qu’il y avait un risque d’atteinte à la vie privée, la ville n’ayant pas apporté assez de garanties sur la possibilité ou non de reconnaître les voix des personnes.
"Les habitants sont sous-informés sur ces questions-là"
Pour le journaliste Olivier Tesquet, c’est par ces différentes expérimentations dans les communes que le terrain se prépare : "Ces municipalités se sont transformées en showrooms sécuritaires, analyse-t-il. À Valenciennes, Huawei offre des caméras de vidéosurveillance à la commune. À Nice et à Marseille, c’est l’américain Cisco qui a approché la région Paca pour l'installation de portiques de reconnaissance faciale à l'entrée des lycées. Le problème, c’est qu’il n’y a pas d'appel d'offres, et les habitants sont assez cruellement sous-informés sur ces questions-là."
À réécouter :
La Bulle économique > Reconnaissance faciale : quand les industriels poussent à son développement
https://www.franceculture.fr/emissions/la-bulle-economique/reconnaissance-faciale-quand-les-industriels-poussent-a-son-developpement
Le consentement : une question centrale
Au-delà de ces expérimentations temporaires, limitées ou retoquées, la loi autorise tout de même de faire de la reconnaissance faciale dans certains cas.
Le ministère de l’Intérieur développe actuellement une application d’identité numérique pour smartphones, Alicem. Reliée à FranceConnect, elle doit permettre, par comparaison faciale, d’ouvrir un compte pour renouveler ses papiers à distance (carte grise, permis de conduire, carte d’identité numérique, etc.). Cette technologie est déjà présente sur de nombreux appareils pour les déverrouiller.
Mais est-elle vraiment sûre ? "Pour lutter contre l'usurpation d'identité, on a de la reconnaissance faciale, mais également ce qu'on appelle de la reconnaissance du vivant, rassure Jérôme Letier, directeur de l’Agence nationale des titres sécurisés. On demande aux gens de bouger, pour être capable de distinguer une simple photographie ou un montage grossier du véritable visage de la personne."
Le développement de l’application a pu être autorisé car elle ne fonctionne qu’avec le consentement de l’utilisateur : si vous utilisez Alicem, cela veut dire que vous en acceptez le principe. Pour Jérôme Letier, les questions éthiques soulevées par la surveillance en temps réel dans la rue ne se posent pas ici.
À lire aussi :
Actualités > Le vaste chantier de notre identité numérique
https://www.franceculture.fr/numerique/le-vaste-chantier-de-notre-identite-numerique
Un QR code sur son billet dans les aéroports
La question du consentement, essentielle donc, est étudiée par les autorités pour équiper les infrastructures sportives ou touristiques d’équipements légaux de reconnaissance faciale.
Sont principalement concernés : les Jeux olympiques de Paris en 2024, ainsi que les aéroports. La société Idemia a déjà effectué des essais d’embarquement sur des vols avec des volontaires.
Les conditions générales de vente des billets pourraient contenir une clause de consentement qui permette de mettre en place un système de files différenciées, grâce à un QR code individuel qui incorpore une transcription de la photo d'identité, pour gagner du temps et de ne plus être obligé de présenter ses papiers à chaque étape. Guillaume Cazenave, de la société Two-I, rassure : "Si la personne ne donne pas son consentement, et c'est son droit qu’il est important de le respecter, il y aura toujours une file avec filtrage humain et manuel."
Un appel d’offres a officiellement été lancé par l’Agence nationale de la recherche.
La CNIL n'exclut pas de rendre un avis favorable pour les JO
Globalement, ce nouveau marché est évalué à sept milliards d’euros en France. Les Jeux de 2024, dont l’enjeu sécuritaire est très fort, ainsi que la Coupe du monde masculine de rugby en 2023, devraient être le laboratoire de ces technologies. "La filière industrielle française en matière de sécurité est en train de se positionner, analyse Félix Treguer, sociologue et fondateur de La Quadrature du net. Des sociétés comme Atos, Dassault Systèmes, Capgemini, sont en lien avec le ministère de l’Intérieur, via un comité, pour rafler les marchés publics autour des JO de 2024."
La CNIL n’exclut pas de rendre un avis favorable à la reconnaissance faciale pour les Jeux olympiques de Paris. "C’est envisageable, indique Marie-Laure Denis, présidente de la CNIL, à la cellule investigation de Radio France. Soit sur la base d'un consentement réel, soit par un texte qui autorise pour une durée limitée et sur un périmètre défini l'utilisation de ces pratiques. Tout cela est anticipable et faisable. Il s'agit encore une fois de concilier la protection des Français et la protection de leurs libertés, ce qui est également important."
Faire à l’étranger ce qui est interdit en France
Comme la France ne peut pas tester à grande échelle ces futurs équipements sur son territoire, certaines sociétés en profitent pour exporter du matériel à l’étranger, où les réglementations en la matière sont plus souples. La société Idemia équipe par exemple les services du FBI aux États-Unis, ou encore des espaces publics en Chine.
Le ministère de l’Intérieur, via la préfecture de police de Paris, teste à l’étranger des dispositifs interdits en France. Toujours dans l'optique des JO, ils ont expérimenté une solution de reconnaissance à grande échelle, avec Idemia. "La CNIL a émis une fin de non-recevoir à cette expérimentation en France, raconte Félix Tréguer. Du coup, le ministère de l'Intérieur a passé une convention avec Interpol et le gouvernement de Singapour pour qu’elle puisse avoir lieu dans une plateforme de transports de la cité-État."
"Ces technologies ne sont pas encore parfaitement au point"
De nombreuses études montrent pourtant que beaucoup de ces solutions ne sont pas fiables.
Aux États-Unis, le National Institute of Standards and Technology (NIST) a démontré des biais et des erreurs d’identification, notamment raciaux. "J’ai fait le test sur mon visage, et plusieurs fois, on m'a présenté comme une personne noire, s’étonne le journaliste (blanc) Olivier Tesquet. Certaines personnes étaient catégorisées par des adjectifs extrêmement stigmatisants, comme l'appellation ‘négroïde’ (sic). En termes de résolution des biais algorithmiques, on a encore beaucoup de chemin à faire."
Pour l’avocat Patrice Navarro, le problème est que les algorithmes sont "entraînés" sur des bases de données qui comportent essentiellement des photos d'hommes caucasiens. "D'où la présence de nombreux faux positifs et de biais liés à l'ethnie ou au sexe, ce qui prouve qu'aujourd'hui ces technologies ne sont pas encore parfaitement au point. On capte des images de mauvaise qualité de gens en train de bouger, qui peuvent porter des casquettes, des lunettes de soleil... Tout ceci peut très bien fonctionner si c’est correctement encadré, et cela peut avoir beaucoup d'intérêt. Mais encore faut-il que cela fonctionne."
D’autres critères sont testés afin de les croiser avec les informations du visage, comme l’iris, l’oreille, ou encore les mouvements du corps et la démarche, caractéristique difficile à dissimuler aux caméras.
Des craintes à propos de la possible mutualisation des fichiers et des réseaux
De plus en plus de voix se font entendre pour exprimer leurs craintes quant à un possible fichage général de la population. Avec la mise en place de la carte d’identité numérique, obligatoire en Europe à l’horizon 2021, le risque d’un maillage global existe, selon Olivier Tesquet : "Le site d’investigation américain The Intercept (article en anglais), a révélé qu'une dizaine de pays européens, sous l'impulsion de l'Autriche, songent à mutualiser leurs bases de données de reconnaissance faciale, un peu comme on échange déjà des fichiers de police dans le cadre d'Europol."
La crainte des anti-reconnaissance faciale est qu’à terme la technologie permette de mailler les réseaux de caméras. La SNCF, sur la Côte d’Azur, est déjà équipée en caméras intelligentes. Or, selon Martin Drago de La Quadrature du net, elles sont parfaitement compatibles avec d’autres. "On pourra avoir une imbrication des différents outils liés à différents marchés de collectivités, d’entreprises publiques ou privées, avec à la fin un maillage de surveillance algorithmique de l'espace public assez impressionnant."
"L'usage va créer le besoin, et le besoin va créer un nouvel usage"
D’où la mise en garde lancée par le député Modem Philippe Latombe, membre du groupe de travail sur les droits et libertés constitutionnels à l'ère numérique de l’Assemblée nationale. Selon lui, un tel outil placé entre de mauvaises mains pourrait dériver vers une surveillance de masse à des fins autres que sécuritaires : "Tout le monde se dit qu’on pourrait utiliser la reconnaissance faciale afin de retrouver par exemple une personne atteinte d'Alzheimer qui a disparu. Sauf que les Chinois ont aussi commencé par ça, en contrôlant dans leur population des criminels qui avaient donné l'autorisation de faire de la comparaison. Au fur et à mesure, ils ont fait grossir le fichier jusqu'à avoir la totalité de la population, pour leur donner des notes de crédit social."
L'usage va créer le besoin, et le besoin va créer un nouvel usage. C'est une chaîne sans fin. Philippe Latombe, député Modem
Pour l’heure, le RGPD (règlement européen sur la protection des données) offre une protection aux citoyens européens, et en France, la CNIL veille à son application. Mais le RGPD n’a pas de régulateur, et la seconde n’intervient qu’a posteriori, alors que dans le même temps, les fabricants de matériel comptent bien s’engouffrer dans la brèche, grâce au soutien d’élus locaux réceptifs à leur demande, avec à la clé des enjeux financiers considérables.
Philippe Reltien et Cellule investigation de Radio France
Des caméras de Nice à la répression chinoise des Ouïghours, cette enquête dresse le panorama mondial de l'obsession sécuritaire, avec un constat glaçant : le totalitarisme numérique est pour demain.
Aujourd'hui, plus de 500 millions de caméras sur la planète offrent aux autorités la capacité de nous surveiller, à peu près partout et à chaque instant. Sous couvert de lutte contre le terrorisme ou la criminalité, les grandes puissances se sont lancées dans une dangereuse course aux technologies de surveillance. Dorénavant, l'incroyable perfectionnement de l'intelligence artificielle valide l'idée d'un regard total. Aux États-Unis, les forces de police utilisent la reconnaissance faciale pour identifier les suspects. En Chine, les caméras peuvent repérer les criminels de dos, à leur simple démarche. En France, la police utilise des caméras intelligentes qui analysent les émotions et les comportements des passants. Marquée par l'attentat au camion du 14 juillet 2016, qui a fait 86 morts, et s'est produit en dépit des 2 000 caméras scrutant la ville, Nice se situe désormais à l'avant-garde de l'expérimentation. Le centre de supervision et les zones dédiées à la reconnaissance faciale sont les chevaux de bataille du maire Christian Estrosi, qui veut faire de sa ville une safe city. Comme un virus, l'idéologie du tout sécuritaire se répand à la mesure d'une révolution numérique à la puissance exponentielle. Va-t-elle transformer notre monde en une planète habitée par 7 milliards de suspects ? Quel niveau de surveillance nos libertés individuelles peuvent-elles endurer ?
Dictature 3.0
On le surnomme le "marché de la peur", estimé à 40 milliards de dollars par an. Colossaux, les enjeux de la surveillance intelligente aiguisent les appétits de sociétés prêtes à promouvoir le "modèle Big Brother" pour engranger les plus grands bénéfices. L'enquête internationale de Sylvain Louvet démonte les rouages de cette machine aux innombrables facettes et dévoile la relation incestueuse qui se noue entre les industriels et les pouvoirs publics. En Israël, elle souligne les liens entre l'armée, le Mossad et les start-up technologiques, soupçonnées de tester la reconnaissance faciale aux checkpoints. En France, elle met en lumière l'influence du secteur privé, dans les orientations choisies par le maire de Nice, Christian Estrosi. Aux États-Unis, l'enquête donne la parole à ceux qui dénoncent la faillibilité du logiciel de reconnaissance faciale d'Amazon couplé à un fichage biométrique généralisé. Le documentariste a également réussi à enquêter en Chine, pays où l'obsession sécuritaire est en passe de donner naissance à une nouvelle forme de régime : la dictature 3.0. Arrestations "préventives" arbitraires, mise en place d'un système de notation des citoyens, fichage ADN et persécution systématisée (allant jusqu'à l'apposition d'un QR code sur la porte des appartements) de la minorité musulmane des Ouïghours… L'arsenal de la répression connaît un degré de raffinement inédit dans l'histoire de l'humanité. Un camp du Goulag numérique : telle est la vision du futur dessinée par ce documentaire aussi percutant que glaçant.
Le gouvernement, à travers l’article 57 du projet de loi de finances pour 2020 (PLF2020), veut permettre à l’administration fiscale et aux douanes de surveiller les plateformes Internet. Le texte est encore en discussion à l’Assemblée nationale mais cet article 57 doit être rejeté en bloc. Auditionné·es la semaine dernière à ce sujet par le rapporteur (Philippe Latombe, groupe MoDem) de la commission des lois, saisie pour avis, nous avons demandé la suppression de cet article. Notre appel n’a pas été entendu et nous le déplorons fortement. Désormais, nous appelons l’ensemble des député·es à supprimer cet article.