41 shaares
Page du wiki de Sébastien Sauvage
Article écrit par François Charlet, juriste suisse, le 11/09/2017
Le 14 décembre 2020, le Conseil de l'Union européenne a adopté une résolution sur le chiffrement, dans laquelle il souligne la nécessité d'assurer la sécurité grâce au chiffrement et malgré le chiffrement.
Dans cette résolution, le Conseil insiste sur le soutien qu'il apporte au développement, à la mise en œuvre et à l'utilisation du chiffrement fort, y voyant un moyen nécessaire pour protéger les droits fondamentaux et la sécurité numérique des pouvoirs publics, des entreprises et de la société. Dans le même temps, le Conseil note qu'il faut veiller à ce que les autorités répressives et judiciaires compétentes « soient en mesure d'exercer leurs pouvoirs légaux, tant en ligne que hors ligne, pour protéger nos sociétés et nos citoyens ».
Les autorités répressives et le système judiciaire sont de plus en plus tributaires de l'accès aux preuves électroniques pour lutter efficacement contre le terrorisme, la criminalité organisée, la pédopornographie et toute une série d'autres formes de cybercriminalité et de criminalité facilitée par les technologies de l'information et de la communication. Un tel accès est essentiel au succès de la répression et de la justice pénale dans le cyberespace. Toutefois, dans certains cas, le chiffrement rend extrêmement difficile ou pratiquement impossible l'accès aux preuves et leur analyse.
L'UE s'efforce d'engager une discussion active avec le secteur des technologies, ainsi qu'en étroite concertation avec la recherche, le monde universitaire, les entreprises, la société civile et d'autres parties prenantes, afin de trouver un juste équilibre entre la poursuite de l'utilisation de technologies de chiffrement fort et le fait de veiller à ce que les pouvoirs des services répressifs et du système judiciaire s'exercent dans les mêmes conditions que dans le monde hors ligne. Les solutions techniques potentielles devront respecter la vie privée et les droits fondamentaux, tout en préservant les avantages que le progrès technologique apporte à la société.
Une menace pour le chiffrement
ProtonMail, Threema, Tresorit et Tutanota ont indiqué que
ProtonMail a indiqué que : « le Conseil de l'Union européenne a publié une résolution de cinq pages appelant l'UE à adopter de nouvelles règles pour régir l'utilisation du chiffrement de bout en bout en Europe. Nous nous opposons fermement à cette résolution car elle préfigure une attaque contre le chiffrement ».
ProtonMail n’était pas le seul service basé en Europe qui utilise le chiffrement de bout en bout à être alarmé par le virage soudain de l'UE contre la vie privée. Avec Threema, Tresorit et Tutanota, le service de messagerie a partagé la déclaration conjointe suivante :
« À l’occasion de la Journée de la protection de la vie privée, les services européens chiffrés de bout en bout ProtonMail, Threema, Tresorit et Tutanota appellent les décideurs politiques de l’UE à repenser les propositions formulées dans la résolution du Conseil de décembre sur le chiffrement.
« L’objectif déclaré du Conseil, à savoir "la sécurité par le chiffrement et la sécurité malgré le chiffrement » - et les portes dérobées au chiffrement que cela exigerait - menaceront les droits fondamentaux de millions d’Européens et saperont une évolution mondiale vers l’adoption du chiffrement de bout en bout. En réponse, ces quatre sociétés technologiques européennes de premier plan rejettent toute tentative d’utiliser des instruments juridiques pour violer la vie privée des citoyens et se mobilisent pour protéger les droits des personnes et des entreprises qui choisissent le chiffrement de bout en bout.
« Bien que cela ne soit pas explicitement indiqué dans la résolution, il est largement admis que la proposition vise à permettre aux forces de l'ordre d'accéder aux plateformes chiffrées via des portes dérobées. Cependant, la résolution crée un malentendu fondamental : le chiffrement est un absolu. Les données sont chiffrées ou non; les utilisateurs ont la confidentialité ou non. Le désir de donner aux forces de l'ordre plus d'outils pour lutter contre la criminalité est évidemment compréhensible. Mais les propositions sont l'équivalent numérique de donner aux forces de l'ordre une clé du domicile de chaque citoyen et pourraient commencer une pente glissante vers de plus grandes violations de la vie privée.
« Le passage sans précédent de l’année dernière au travail à distance a vu des dizaines de millions d’individus et d’entreprises se tourner vers des technologies telles que le chiffrement de bout en bout pour garantir leur sécurité numérique et leur confidentialité. Plus récemment, après que de plus en plus de personnes ont pris connaissance du partage de données WhatsApp avec Facebook, les utilisateurs passent en nombre record à des services chiffrés de bout en bout, axés sur la confidentialité. Partout dans le monde, des gens reprennent le contrôle de leur vie privée et ce sont souvent des entreprises européennes qui les aident à le faire. Il semble illogique que les décideurs politiques de l'UE poussent désormais pour des lois qui vont à l'encontre de l'opinion publique et sapent un secteur technologique européen en pleine croissance.
« La résolution a effectivement donné à la Commission européenne le feu vert pour commencer à préparer des propositions concrètes au cours des prochains mois. Mais, comme le soulignent ProtonMail, Threema, Tresorit et Tutanota, la Commission doit se rappeler que, d'un point de vue technologique, il est impossible de fournir un quelconque accès au contenu chiffré de bout en bout, même un accès ciblé dans un processus légal, sans affaiblir gravement l'ensemble du système. »
Les commentaires de ces sociétés
« Ce n’est pas la première fois que nous voyons une rhétorique anti-chiffrement émanant de certaines parties de l’Europe, et je doute que ce soit la dernière. Mais cela ne signifie pas que nous devons être complaisants », a déclaré Andy Yen, PDG et fondateur de ProtonMail, le service de messagerie suisse chiffré de bout en bout. « En termes simples, la résolution n'est pas différente des propositions précédentes qui ont généré une large réaction de la part d'entreprises soucieuses de la vie privée, de membres de la société civile, d'experts et de députés européens. La différence cette fois est que le Conseil a adopté une approche plus subtile et évité d’utiliser explicitement des mots tels que «interdiction» ou «porte dérobée». Mais ne vous y trompez pas, telle est l’intention. Il est important que des mesures soient prises maintenant pour éviter que ces propositions n'aillent trop loin et que les droits des Européens à la vie privée restent intacts ».
« Les entreprises s'appuient sur un chiffrement de bout en bout pour protéger leurs secrets commerciaux et leurs informations confidentielles. Les citoyens utilisent des applications qui suivent l'objectif de conception de connaissance zéro pour communiquer librement sans être suivis et monétisés et pour exercer leur droit statutaire à la vie privée. Les jeunes entreprises européennes sont désormais à la pointe de cette révolution technologique et de la protection des données. L’expérience montre que tout ce qui affaiblit ces acquis peut être et sera abusé par des tiers et des criminels, mettant ainsi en danger notre sécurité à tous. Avec l'abondance d'alternatives open source, les utilisateurs passeraient simplement à ces applications s'ils savaient qu'un service était compromis », a déclaré Martin Blatter, PDG de Threema, l'application de messagerie instantanée chiffrée de bout en bout. « Forcer les fournisseurs européens à contourner ou à affaiblir délibérément le chiffrement de bout en bout détruirait non seulement l'économie européenne des startups informatiques, mais ne fournirait même pas un peu de sécurité supplémentaire. Rejoignant les rangs des États de surveillance les plus notoires de ce monde, l'Europe abandonnerait imprudemment son avantage concurrentiel unique et deviendrait une friche pour la vie privée », a-t-il ajouté.
« Cette résolution compromettrait gravement la confiance croissante des particuliers et des entreprises dans les services chiffrés de bout en bout et menacerait la sécurité des utilisateurs qui souhaitent simplement partager des informations en toute sécurité ou tirer parti du chiffrement de bout en bout dans le cadre de la conformité à la protection des données. Nous trouvons cette résolution particulièrement alarmante compte tenu des vues précédemment progressistes de l’UE sur la protection des données. Le règlement général sur la protection des données (RGPD), le modèle mondialement reconnu de l’UE pour la législation sur la protection des données, préconise explicitement un cryptage fort en tant que technologie fondamentale pour garantir la vie privée des citoyens. Ces nouvelles propositions sont inconciliables avec la position actuelle de l'UE sur la confidentialité des données: les approches actuelles et proposées sont en contradiction totale les unes avec les autres, car il est impossible de garantir l'intégrité du cryptage tout en fournissant un quelconque accès ciblé aux données cryptées » a déclaré Istvan Lam, cofondateur et PDG de Tresorit, le service de synchronisation et de partage de fichiers chiffrés de bout en bout.
« Le chiffrement est l'épine dorsale d'Internet. Chaque citoyen de l'UE a besoin d'un chiffrement pour protéger ses données sur le Web et se protéger des attaquants malveillants. Avec la dernière tentative de chiffrement avec porte dérobée, les politiciens veulent un moyen plus simple de prévenir les crimes tels que les attaques terroristes tout en ignorant toute une gamme d'autres crimes contre lesquels le chiffrement nous protège. Le chiffrement de bout en bout protège nos données et nos communications contre les écoutes telles que les pirates informatiques, les gouvernements (étrangers) et les terroristes. En exigeant des portes dérobées de chiffrement, les politiciens ne nous demandent pas de choisir entre la sécurité et la confidentialité. Ils nous demandent de ne choisir aucune sécurité », a déclaré Arne Möhle, cofondateur de Tutanota, le fournisseur allemand de messagerie chiffrée de bout en bout.
Dans cette résolution, le Conseil insiste sur le soutien qu'il apporte au développement, à la mise en œuvre et à l'utilisation du chiffrement fort, y voyant un moyen nécessaire pour protéger les droits fondamentaux et la sécurité numérique des pouvoirs publics, des entreprises et de la société. Dans le même temps, le Conseil note qu'il faut veiller à ce que les autorités répressives et judiciaires compétentes « soient en mesure d'exercer leurs pouvoirs légaux, tant en ligne que hors ligne, pour protéger nos sociétés et nos citoyens ».
Les autorités répressives et le système judiciaire sont de plus en plus tributaires de l'accès aux preuves électroniques pour lutter efficacement contre le terrorisme, la criminalité organisée, la pédopornographie et toute une série d'autres formes de cybercriminalité et de criminalité facilitée par les technologies de l'information et de la communication. Un tel accès est essentiel au succès de la répression et de la justice pénale dans le cyberespace. Toutefois, dans certains cas, le chiffrement rend extrêmement difficile ou pratiquement impossible l'accès aux preuves et leur analyse.
L'UE s'efforce d'engager une discussion active avec le secteur des technologies, ainsi qu'en étroite concertation avec la recherche, le monde universitaire, les entreprises, la société civile et d'autres parties prenantes, afin de trouver un juste équilibre entre la poursuite de l'utilisation de technologies de chiffrement fort et le fait de veiller à ce que les pouvoirs des services répressifs et du système judiciaire s'exercent dans les mêmes conditions que dans le monde hors ligne. Les solutions techniques potentielles devront respecter la vie privée et les droits fondamentaux, tout en préservant les avantages que le progrès technologique apporte à la société.
Une menace pour le chiffrement
ProtonMail, Threema, Tresorit et Tutanota ont indiqué que
ProtonMail a indiqué que : « le Conseil de l'Union européenne a publié une résolution de cinq pages appelant l'UE à adopter de nouvelles règles pour régir l'utilisation du chiffrement de bout en bout en Europe. Nous nous opposons fermement à cette résolution car elle préfigure une attaque contre le chiffrement ».
ProtonMail n’était pas le seul service basé en Europe qui utilise le chiffrement de bout en bout à être alarmé par le virage soudain de l'UE contre la vie privée. Avec Threema, Tresorit et Tutanota, le service de messagerie a partagé la déclaration conjointe suivante :
« À l’occasion de la Journée de la protection de la vie privée, les services européens chiffrés de bout en bout ProtonMail, Threema, Tresorit et Tutanota appellent les décideurs politiques de l’UE à repenser les propositions formulées dans la résolution du Conseil de décembre sur le chiffrement.
« L’objectif déclaré du Conseil, à savoir "la sécurité par le chiffrement et la sécurité malgré le chiffrement » - et les portes dérobées au chiffrement que cela exigerait - menaceront les droits fondamentaux de millions d’Européens et saperont une évolution mondiale vers l’adoption du chiffrement de bout en bout. En réponse, ces quatre sociétés technologiques européennes de premier plan rejettent toute tentative d’utiliser des instruments juridiques pour violer la vie privée des citoyens et se mobilisent pour protéger les droits des personnes et des entreprises qui choisissent le chiffrement de bout en bout.
« Bien que cela ne soit pas explicitement indiqué dans la résolution, il est largement admis que la proposition vise à permettre aux forces de l'ordre d'accéder aux plateformes chiffrées via des portes dérobées. Cependant, la résolution crée un malentendu fondamental : le chiffrement est un absolu. Les données sont chiffrées ou non; les utilisateurs ont la confidentialité ou non. Le désir de donner aux forces de l'ordre plus d'outils pour lutter contre la criminalité est évidemment compréhensible. Mais les propositions sont l'équivalent numérique de donner aux forces de l'ordre une clé du domicile de chaque citoyen et pourraient commencer une pente glissante vers de plus grandes violations de la vie privée.
« Le passage sans précédent de l’année dernière au travail à distance a vu des dizaines de millions d’individus et d’entreprises se tourner vers des technologies telles que le chiffrement de bout en bout pour garantir leur sécurité numérique et leur confidentialité. Plus récemment, après que de plus en plus de personnes ont pris connaissance du partage de données WhatsApp avec Facebook, les utilisateurs passent en nombre record à des services chiffrés de bout en bout, axés sur la confidentialité. Partout dans le monde, des gens reprennent le contrôle de leur vie privée et ce sont souvent des entreprises européennes qui les aident à le faire. Il semble illogique que les décideurs politiques de l'UE poussent désormais pour des lois qui vont à l'encontre de l'opinion publique et sapent un secteur technologique européen en pleine croissance.
« La résolution a effectivement donné à la Commission européenne le feu vert pour commencer à préparer des propositions concrètes au cours des prochains mois. Mais, comme le soulignent ProtonMail, Threema, Tresorit et Tutanota, la Commission doit se rappeler que, d'un point de vue technologique, il est impossible de fournir un quelconque accès au contenu chiffré de bout en bout, même un accès ciblé dans un processus légal, sans affaiblir gravement l'ensemble du système. »
Les commentaires de ces sociétés
« Ce n’est pas la première fois que nous voyons une rhétorique anti-chiffrement émanant de certaines parties de l’Europe, et je doute que ce soit la dernière. Mais cela ne signifie pas que nous devons être complaisants », a déclaré Andy Yen, PDG et fondateur de ProtonMail, le service de messagerie suisse chiffré de bout en bout. « En termes simples, la résolution n'est pas différente des propositions précédentes qui ont généré une large réaction de la part d'entreprises soucieuses de la vie privée, de membres de la société civile, d'experts et de députés européens. La différence cette fois est que le Conseil a adopté une approche plus subtile et évité d’utiliser explicitement des mots tels que «interdiction» ou «porte dérobée». Mais ne vous y trompez pas, telle est l’intention. Il est important que des mesures soient prises maintenant pour éviter que ces propositions n'aillent trop loin et que les droits des Européens à la vie privée restent intacts ».
« Les entreprises s'appuient sur un chiffrement de bout en bout pour protéger leurs secrets commerciaux et leurs informations confidentielles. Les citoyens utilisent des applications qui suivent l'objectif de conception de connaissance zéro pour communiquer librement sans être suivis et monétisés et pour exercer leur droit statutaire à la vie privée. Les jeunes entreprises européennes sont désormais à la pointe de cette révolution technologique et de la protection des données. L’expérience montre que tout ce qui affaiblit ces acquis peut être et sera abusé par des tiers et des criminels, mettant ainsi en danger notre sécurité à tous. Avec l'abondance d'alternatives open source, les utilisateurs passeraient simplement à ces applications s'ils savaient qu'un service était compromis », a déclaré Martin Blatter, PDG de Threema, l'application de messagerie instantanée chiffrée de bout en bout. « Forcer les fournisseurs européens à contourner ou à affaiblir délibérément le chiffrement de bout en bout détruirait non seulement l'économie européenne des startups informatiques, mais ne fournirait même pas un peu de sécurité supplémentaire. Rejoignant les rangs des États de surveillance les plus notoires de ce monde, l'Europe abandonnerait imprudemment son avantage concurrentiel unique et deviendrait une friche pour la vie privée », a-t-il ajouté.
« Cette résolution compromettrait gravement la confiance croissante des particuliers et des entreprises dans les services chiffrés de bout en bout et menacerait la sécurité des utilisateurs qui souhaitent simplement partager des informations en toute sécurité ou tirer parti du chiffrement de bout en bout dans le cadre de la conformité à la protection des données. Nous trouvons cette résolution particulièrement alarmante compte tenu des vues précédemment progressistes de l’UE sur la protection des données. Le règlement général sur la protection des données (RGPD), le modèle mondialement reconnu de l’UE pour la législation sur la protection des données, préconise explicitement un cryptage fort en tant que technologie fondamentale pour garantir la vie privée des citoyens. Ces nouvelles propositions sont inconciliables avec la position actuelle de l'UE sur la confidentialité des données: les approches actuelles et proposées sont en contradiction totale les unes avec les autres, car il est impossible de garantir l'intégrité du cryptage tout en fournissant un quelconque accès ciblé aux données cryptées » a déclaré Istvan Lam, cofondateur et PDG de Tresorit, le service de synchronisation et de partage de fichiers chiffrés de bout en bout.
« Le chiffrement est l'épine dorsale d'Internet. Chaque citoyen de l'UE a besoin d'un chiffrement pour protéger ses données sur le Web et se protéger des attaquants malveillants. Avec la dernière tentative de chiffrement avec porte dérobée, les politiciens veulent un moyen plus simple de prévenir les crimes tels que les attaques terroristes tout en ignorant toute une gamme d'autres crimes contre lesquels le chiffrement nous protège. Le chiffrement de bout en bout protège nos données et nos communications contre les écoutes telles que les pirates informatiques, les gouvernements (étrangers) et les terroristes. En exigeant des portes dérobées de chiffrement, les politiciens ne nous demandent pas de choisir entre la sécurité et la confidentialité. Ils nous demandent de ne choisir aucune sécurité », a déclaré Arne Möhle, cofondateur de Tutanota, le fournisseur allemand de messagerie chiffrée de bout en bout.
Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme « terroriste » par la police, et ce sans intervention préalable d’un juge.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
Lundi, la commission LIBE (pour Commission des libertés civiles, de la justice et des affaires intérieures) du Parlement européen a voté le règlement dit « anti-terroriste ». Ce nouveau règlement obligera l’ensemble des acteurs de l’Internet à censurer en une heure n’importe quel contenu signalé comme « terroriste » par la police, et ce sans intervention préalable d’un juge.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
Comme nous le répétons depuis maintenant deux ans :
Le délai d’une heure n’est pas réaliste, seules les grosses plateformes seront en mesure de se conformer à une telle obligation;
La menace de lourdes amendes et l’impossibilité pratique de se conformer aux ordres de retrait obligera les acteurs du web à censurer de manière proactive tout contenu potentiellement illégal en amont, en utilisant les outils automatisés de surveillance de masse développés par Google et Facebook;
Ce pouvoir donné à la police, sans contrôle préalable d’un juge pourrait mener à la censure d’opposants politiques et de mouvements sociaux;
Le texte permet à une autorité de tout État membre d’ordonner le retrait d’un contenu hébergé dans un autre État membre. De telles mesures transfrontalières sont non seulement irréalistes, mais ne peuvent qu’aggraver le danger d’une censure politique de masse
Surtout, en juin 2020, le Conseil constitutionnel a censuré une disposition (parmi beaucoup d’autres) de la loi Avia qui prévoyait la même obligation de retrait en 1 heure de contenus notifiés comme « terroristes » par la police. Il a jugé qu’une telle obligation constituait une atteinte disproportionnée à la liberté d’expression et de communication.
Les membres de la Commission LIBE ont néanmoins voté le texte. Les députés européens, et spécifiquement les députés français, ont donc voté en toute conscience un texte déclaré anticonstitutionnel en France. Ils devront en porter toute la responsabilité.
Nous travaillons sur ce texte depuis sa présentation en septembre 2018. Le vote d’hier était une étape importante dans le processus de son adoption, et donc une défaite pour la lutte contre la censure et la surveillance sur Internet. Ce vote a eu lieu sans aucun débat ou vote public (les résultats précis n’ont toujours pas été publiés).
La prochaine étape sera le vote en plénière au Parlement européen. Nous sommes prêts pour continuer la bataille contre ce texte et demander son rejet.
Dans une ordonnance rendue publique ce jour, le Conseil d’État, saisi par le collectif Santenathon, reconnaît que le gouvernement des États‑Unis peut accéder sans contrôle aux données de santé des Français hébergées par le Health Data Hub chez Microsoft, et demande des garanties supplémentaires.
Cette décision est justifiée par l’arrêt de la Cour de justice de l’Union européenne (CJUE) du 16 juillet 2020, dit « Schrems II », qui juge que la surveillance exercée par les services de renseignements américains sur les données personnelles des citoyens européens est excessive, insuffisamment encadrée et sans réelle possibilité de recours. La CJUE en a déduit que les transferts de données personnelles depuis l’Union européenne vers les États‑Unis sont contraires au règlement général sur la protection des données (RGPD) et à la Charte des droits fondamentaux de l’Union européenne, sauf à apporter des garanties particulières ou dans certains cas dérogatoires.
Les jours sont donc bien comptés pour cette plate‑forme développée depuis deux ans, sans appel d’offre, et au mépris de l’offre des sociétés françaises et européennes, notamment des acteurs du logiciel libre. Le Gouvernement a en effet exprimé, jeudi dernier devant le Sénat, sa volonté de transférer le Health Data Hub sur des plates‑formes françaises ou européennes. Dans l’intervalle, la juge du Conseil d’État demande au Health Data Hub de travailler à minimiser ce risque, notamment en concluant un nouvel avenant avec Microsoft, et à ce que la CNIL instruise les demandes d’autorisation des projets de recherche utilisant le Health Data Hub en vérifiant que l’intérêt du projet, compte tenu de l’urgence sanitaire actuelle, est suffisant pour justifier le risque encouru et que le recours à la plate‑forme est nécessaire.
Aller plus loin
L’ordonnance du Conseil d’État
https://www.conseil-etat.fr/actualites/actualites/health-data-hub-et-protection-de-donnees-personnelles-des-precautions-doivent-etre-prises-dans-l-attente-d-une-solution-perenne
Le commentaire de la CNIL
https://cnll.fr/news/decision-conseil-etat-health-data-hub-14-octobre
Le communiqué du CNLL
https://cnll.fr/news/health-data-hub-memoire-cnil-rgpd
Le site de Santenathon
https://www.cnil.fr/fr/le-conseil-detat-demande-au-health-data-hub-des-garanties-supplementaires
Le mémoire de la CNIL
https://www.santenathon.org
Une vidéo « grand public » pour comprendre les enjeux
https://video.ploud.fr/videos/watch/13964678-d65f-4fe7-9806-ef071441a477
Cette décision est justifiée par l’arrêt de la Cour de justice de l’Union européenne (CJUE) du 16 juillet 2020, dit « Schrems II », qui juge que la surveillance exercée par les services de renseignements américains sur les données personnelles des citoyens européens est excessive, insuffisamment encadrée et sans réelle possibilité de recours. La CJUE en a déduit que les transferts de données personnelles depuis l’Union européenne vers les États‑Unis sont contraires au règlement général sur la protection des données (RGPD) et à la Charte des droits fondamentaux de l’Union européenne, sauf à apporter des garanties particulières ou dans certains cas dérogatoires.
Les jours sont donc bien comptés pour cette plate‑forme développée depuis deux ans, sans appel d’offre, et au mépris de l’offre des sociétés françaises et européennes, notamment des acteurs du logiciel libre. Le Gouvernement a en effet exprimé, jeudi dernier devant le Sénat, sa volonté de transférer le Health Data Hub sur des plates‑formes françaises ou européennes. Dans l’intervalle, la juge du Conseil d’État demande au Health Data Hub de travailler à minimiser ce risque, notamment en concluant un nouvel avenant avec Microsoft, et à ce que la CNIL instruise les demandes d’autorisation des projets de recherche utilisant le Health Data Hub en vérifiant que l’intérêt du projet, compte tenu de l’urgence sanitaire actuelle, est suffisant pour justifier le risque encouru et que le recours à la plate‑forme est nécessaire.
Aller plus loin
L’ordonnance du Conseil d’État
https://www.conseil-etat.fr/actualites/actualites/health-data-hub-et-protection-de-donnees-personnelles-des-precautions-doivent-etre-prises-dans-l-attente-d-une-solution-perenne
Le commentaire de la CNIL
https://cnll.fr/news/decision-conseil-etat-health-data-hub-14-octobre
Le communiqué du CNLL
https://cnll.fr/news/health-data-hub-memoire-cnil-rgpd
Le site de Santenathon
https://www.cnil.fr/fr/le-conseil-detat-demande-au-health-data-hub-des-garanties-supplementaires
Le mémoire de la CNIL
https://www.santenathon.org
Une vidéo « grand public » pour comprendre les enjeux
https://video.ploud.fr/videos/watch/13964678-d65f-4fe7-9806-ef071441a477
Interdite sur la voie publique en France, la reconnaissance faciale en temps réel fait malgré tout son chemin. Plusieurs municipalités testent des dispositifs qui s’en rapprochent, avant sa possible autorisation pour les Jeux olympiques de Paris en 2024.
Le nouveau marché de la reconnaissance faciale est évalué à sept milliards d’euros en France. Les Jeux de 2024, dont l’enjeu sécuritaire est très fort, ainsi que la Coupe du monde masculine de rugby en 2023, devraient être les laboratoires de ces technologies. "La filière industrielle française en matière de sécurité est en train de se positionner, analyse Félix Treguer, sociologue et fondateur de La Quadrature du net. Des sociétés comme Atos, Dassault Systèmes, Capgemini, sont en lien avec le ministère de l’Intérieur pour rafler les marchés publics autour des JO de 2024."
Plusieurs expérimentations à grande échelle ont déjà eu lieu ou sont programmées, comme à Nice, Cannes, Marseille... Avec une question centrale, celle du consentement des personnes. Pour le journaliste Olivier Tesquet, c’est par ces différentes expérimentations dans les communes que le terrain se prépare : "Ces municipalités se sont transformées en showrooms sécuritaires, analyse-t-il. À Valenciennes, Huawei offre des caméras de vidéosurveillance à la commune. À Nice et à Marseille, c’est l’américain Cisco qui a approché la région Provence-Alpes-Côte d'Azur pour l'installation de portiques de reconnaissance faciale à l'entrée des lycées. Le problème, c’est qu’il n’y'a pas d'appels d'offres, et les habitants sont assez cruellement sous-informés sur ces questions-là."
Lire l'enquête intégrale "Reconnaissance faciale : officiellement interdite, elle se met peu à peu en place," une enquête de Philippe Reltien, cellule investigation de Radio France :
https://www.franceinter.fr/reconnaissance-faciale-officiellement-interdite-elle-se-met-peu-a-peu-en-place
L'équipe :
Jacques MoninProducteur
Philippe ReltienEnquêteur
Christophe ImbertRéalisateur
Abdelhak El IdrissiJournaliste
Martin BroyerAttaché de production
Nicolas DewitChargé de programme web
Cellule investigation de Radio FranceProduction d'enquêtes à Radio France
Jean-Baptiste AudibertProgrammateur musical
Le nouveau marché de la reconnaissance faciale est évalué à sept milliards d’euros en France. Les Jeux de 2024, dont l’enjeu sécuritaire est très fort, ainsi que la Coupe du monde masculine de rugby en 2023, devraient être les laboratoires de ces technologies. "La filière industrielle française en matière de sécurité est en train de se positionner, analyse Félix Treguer, sociologue et fondateur de La Quadrature du net. Des sociétés comme Atos, Dassault Systèmes, Capgemini, sont en lien avec le ministère de l’Intérieur pour rafler les marchés publics autour des JO de 2024."
Plusieurs expérimentations à grande échelle ont déjà eu lieu ou sont programmées, comme à Nice, Cannes, Marseille... Avec une question centrale, celle du consentement des personnes. Pour le journaliste Olivier Tesquet, c’est par ces différentes expérimentations dans les communes que le terrain se prépare : "Ces municipalités se sont transformées en showrooms sécuritaires, analyse-t-il. À Valenciennes, Huawei offre des caméras de vidéosurveillance à la commune. À Nice et à Marseille, c’est l’américain Cisco qui a approché la région Provence-Alpes-Côte d'Azur pour l'installation de portiques de reconnaissance faciale à l'entrée des lycées. Le problème, c’est qu’il n’y'a pas d'appels d'offres, et les habitants sont assez cruellement sous-informés sur ces questions-là."
Lire l'enquête intégrale "Reconnaissance faciale : officiellement interdite, elle se met peu à peu en place," une enquête de Philippe Reltien, cellule investigation de Radio France :
https://www.franceinter.fr/reconnaissance-faciale-officiellement-interdite-elle-se-met-peu-a-peu-en-place
L'équipe :
Jacques MoninProducteur
Philippe ReltienEnquêteur
Christophe ImbertRéalisateur
Abdelhak El IdrissiJournaliste
Martin BroyerAttaché de production
Nicolas DewitChargé de programme web
Cellule investigation de Radio FranceProduction d'enquêtes à Radio France
Jean-Baptiste AudibertProgrammateur musical
Enquête | La reconnaissance faciale en temps réel n’est toujours pas autorisée en France. De nombreuses expérimentations ont pourtant déjà lieu, et des sociétés se positionnent, avec dans leur viseur les Jeux olympiques de Paris en 2024, et à la clé un marché de sept milliards d’euros.
Imaginez : le 26 juillet 2024. Les Jeux olympiques de Paris débutent. Une foule compacte se presse devant les grilles d’entrée du Stade de France. À l’entrée sud, une file semble avancer plus vite que les autres. En effet, certains spectateurs ont accepté que leur visage soit scruté et analysé par des caméras afin d’accéder plus rapidement aux lieux. C'est-ce que l'on appelle la comparaison faciale.
Ce futur hypothétique se prépare en France. Plusieurs expérimentations de ce type ont déjà eu lieu ou sont programmées. Avec une question centrale, celle du consentement des personnes.
Reconnaissance faciale : des expérimentations encadrées
En 2020, en France comme en Europe, la reconnaissance faciale en temps réel sur la voie publique n’est pas autorisée. Depuis 2012, seule la reconnaissance a posteriori est permise, notamment par la police, à l’aide du fichier de traitement des antécédents judiciaires (TAJ). D’après un rapport de l’Assemblée nationale publié en 2018, plus de 18 millions de personnes, dont 8 millions avec photos, sont recensées dans le TAJ.
C’est la CNIL (Commission nationale de l'informatique et des libertés) qui contrôle et rend un avis pour des expérimentations très encadrées. "Il y a un ensemble de règles qui s'appliquent, confirme Patrice Navarro, avocat au cabinet Hogan Lovells. Il faut qu'il y ait consentement des personnes, et que ce soit pour un motif particulièrement fort et proportionné d'intérêt public ou de sécurité publique."
Mais plusieurs exercices qui se rapprochent de la reconnaissance faciale ont déjà été effectués.
À Nice (Alpes-Maritimes), en février 2019, lors du carnaval, un logiciel israélien a permis d’identifier de supposés fichés S. Il s’agissait en réalité de volontaires figurants parmi des centaines de personnes consentantes, qui ont fourni leur photo, qui se savaient filmés et reconnus facialement.
Une autre tentative dans la même ville a fait polémique. Il s’agissait cette fois-ci d’analyser les émotions des passagers d’un tramway, sans les identifier, afin d'anticiper les problèmes potentiels. L’essai n’a finalement pas fonctionné à cause d’un problème technique de transmission d'images.
À Cannes (Alpes-Maritimes), pendant le confinement, la mairie a voulu vérifier si la population portait bien un masque en allant au marché. Pour cela, elle a fait appel à un prestataire, la start-up Datakalab. Un dispositif également installé dans la station de RER Châtelet-Les Halles à Paris.
Pour le directeur de Datakalab, Xavier Fischer, il ne s’agissait pas d’identifier les gens, mais seulement de compter les personnes portant un masque. Mais la CNIL n’a pas vu les choses ainsi. Elle a estimé que les personnes ne pouvaient exercer leur droit d’opposition puisqu'elles ne savaient pas qu’on analysait leur visage. Résultat, à Cannes, l’opération s’est arrêtée naturellement avec le déconfinement, et à Châtelet, la CNIL a mis un terme à l’essai.
À réécouter :
Hashtag > Jusqu'où ira la reconnaissance faciale ?
https://www.franceculture.fr/emissions/hashtag/jusquou-ira-la-reconnaissance-faciale
Un système prêt à être utilisé à Metz
A Metz (Moselle), l’avancée en la matière semble plus concrète. Après des débordements lors d’un match de Ligue 1 de football en 2016 contre Lyon, des supporters ont été interdits de stade. Comme l’autorise la loi Larrivé relative à la lutte contre le hooliganisme, le FC Metz a mis en place un fichier de ces supporters ultras avec leurs photos, et a investi dans un logiciel de reconnaissance faciale, prêt à être utilisé le cas échéant.
Des supporters se sont d’ailleurs demandé si ce logiciel n’a pas déjà été testé sur eux. Cette hypothèse a d’abord été émise par le journaliste Olivier Tesquet, dans son livre À la trace (Premier Parallèle, 2020). Ces supporters ont ensuite fait le rapprochement avec d’étranges consignes données un soir de match.
"Beaucoup d'entre eux ont dû retirer leurs lunettes, leurs casquettes ou leur écharpe à l’entrée du stade", raconte Pierre Barthélémy, avocat de l’Association nationale des supporters.
A-t-on vraiment testé la reconnaissance faciale en temps réel ce soir-là ? Guillaume Cazenave, directeur de la société messine Two-I, qui a vendu le matériel de vidéosurveillance au FC Metz, dit ne pas le savoir. "Nous ne sommes pas opérateur de système, se défend-il. À notre connaissance, il n'a pas été activé."
Du côté du club, on dément fermement avoir fait un test. La directrice du FC Metz, Hélène Schrub, a assuré par écrit à la cellule investigation de Radio France que la reconnaissance faciale n’avait été ni décidée ni testée, même si elle reconnaît que le projet existe et que le matériel le permet.
Des caméras qui ne s’intéressent pas qu’aux visages
À Marseille (Bouches-du-Rhône), la Cannebière est équipée d’une cinquantaine de caméras intelligentes. Elles ne reconnaissent pas formellement les gens, mais identifient des situations bien précises. "Ce projet a été mis en place 2019, détaille Felix Treguer, membre fondateur de l’association La Quadrature du net. Un algorithme d'analyse automatisée reconnaît des comportements et des événements suspects, et déclenche automatiquement des alertes et des suivis dans le centre de supervision."
Concrètement, il s'agit de repérer des objets abandonnés, des individus au sol, des taggeurs ou de la destruction de mobilier urbain. "Une fois que les caméras ont filmé et que les vidéos sont archivées, la police peut utiliser des filtres, complète Martin Drago, juriste pour La Quadrature du net, c’est-à-dire repérer des visages ou des silhouettes, pour identifier les personnes."
Des projets retoqués par la CNIL
Certaines communes ont tenté d’expérimenter d’autres dispositifs, tels que la reconnaissance sonore par exemple. C’est le cas à Saint-Etienne (Loire) où une filiale d’une société d’armement a proposé en 2019 à la mairie de coupler des caméras avec des micros pour identifier des bruits anormaux au sein d’un quartier sensible. "Les capteurs sonores peuvent déclencher une alerte qui permet l'envoi de drones automatiques pour voir ce qui se passe, décrit Martin Drago, avec ensuite la possibilité d’envoyer une patrouille humaine."
Ce projet a cependant été retoqué par la CNIL. Elle a considéré qu’il y avait un risque d’atteinte à la vie privée, la ville n’ayant pas apporté assez de garanties sur la possibilité ou non de reconnaître les voix des personnes.
"Les habitants sont sous-informés sur ces questions-là"
Pour le journaliste Olivier Tesquet, c’est par ces différentes expérimentations dans les communes que le terrain se prépare : "Ces municipalités se sont transformées en showrooms sécuritaires, analyse-t-il. À Valenciennes, Huawei offre des caméras de vidéosurveillance à la commune. À Nice et à Marseille, c’est l’américain Cisco qui a approché la région Paca pour l'installation de portiques de reconnaissance faciale à l'entrée des lycées. Le problème, c’est qu’il n’y a pas d'appel d'offres, et les habitants sont assez cruellement sous-informés sur ces questions-là."
À réécouter :
La Bulle économique > Reconnaissance faciale : quand les industriels poussent à son développement
https://www.franceculture.fr/emissions/la-bulle-economique/reconnaissance-faciale-quand-les-industriels-poussent-a-son-developpement
Le consentement : une question centrale
Au-delà de ces expérimentations temporaires, limitées ou retoquées, la loi autorise tout de même de faire de la reconnaissance faciale dans certains cas.
Le ministère de l’Intérieur développe actuellement une application d’identité numérique pour smartphones, Alicem. Reliée à FranceConnect, elle doit permettre, par comparaison faciale, d’ouvrir un compte pour renouveler ses papiers à distance (carte grise, permis de conduire, carte d’identité numérique, etc.). Cette technologie est déjà présente sur de nombreux appareils pour les déverrouiller.
Mais est-elle vraiment sûre ? "Pour lutter contre l'usurpation d'identité, on a de la reconnaissance faciale, mais également ce qu'on appelle de la reconnaissance du vivant, rassure Jérôme Letier, directeur de l’Agence nationale des titres sécurisés. On demande aux gens de bouger, pour être capable de distinguer une simple photographie ou un montage grossier du véritable visage de la personne."
Le développement de l’application a pu être autorisé car elle ne fonctionne qu’avec le consentement de l’utilisateur : si vous utilisez Alicem, cela veut dire que vous en acceptez le principe. Pour Jérôme Letier, les questions éthiques soulevées par la surveillance en temps réel dans la rue ne se posent pas ici.
À lire aussi :
Actualités > Le vaste chantier de notre identité numérique
https://www.franceculture.fr/numerique/le-vaste-chantier-de-notre-identite-numerique
Un QR code sur son billet dans les aéroports
La question du consentement, essentielle donc, est étudiée par les autorités pour équiper les infrastructures sportives ou touristiques d’équipements légaux de reconnaissance faciale.
Sont principalement concernés : les Jeux olympiques de Paris en 2024, ainsi que les aéroports. La société Idemia a déjà effectué des essais d’embarquement sur des vols avec des volontaires.
Les conditions générales de vente des billets pourraient contenir une clause de consentement qui permette de mettre en place un système de files différenciées, grâce à un QR code individuel qui incorpore une transcription de la photo d'identité, pour gagner du temps et de ne plus être obligé de présenter ses papiers à chaque étape. Guillaume Cazenave, de la société Two-I, rassure : "Si la personne ne donne pas son consentement, et c'est son droit qu’il est important de le respecter, il y aura toujours une file avec filtrage humain et manuel."
Un appel d’offres a officiellement été lancé par l’Agence nationale de la recherche.
La CNIL n'exclut pas de rendre un avis favorable pour les JO
Globalement, ce nouveau marché est évalué à sept milliards d’euros en France. Les Jeux de 2024, dont l’enjeu sécuritaire est très fort, ainsi que la Coupe du monde masculine de rugby en 2023, devraient être le laboratoire de ces technologies. "La filière industrielle française en matière de sécurité est en train de se positionner, analyse Félix Treguer, sociologue et fondateur de La Quadrature du net. Des sociétés comme Atos, Dassault Systèmes, Capgemini, sont en lien avec le ministère de l’Intérieur, via un comité, pour rafler les marchés publics autour des JO de 2024."
La CNIL n’exclut pas de rendre un avis favorable à la reconnaissance faciale pour les Jeux olympiques de Paris. "C’est envisageable, indique Marie-Laure Denis, présidente de la CNIL, à la cellule investigation de Radio France. Soit sur la base d'un consentement réel, soit par un texte qui autorise pour une durée limitée et sur un périmètre défini l'utilisation de ces pratiques. Tout cela est anticipable et faisable. Il s'agit encore une fois de concilier la protection des Français et la protection de leurs libertés, ce qui est également important."
Faire à l’étranger ce qui est interdit en France
Comme la France ne peut pas tester à grande échelle ces futurs équipements sur son territoire, certaines sociétés en profitent pour exporter du matériel à l’étranger, où les réglementations en la matière sont plus souples. La société Idemia équipe par exemple les services du FBI aux États-Unis, ou encore des espaces publics en Chine.
Le ministère de l’Intérieur, via la préfecture de police de Paris, teste à l’étranger des dispositifs interdits en France. Toujours dans l'optique des JO, ils ont expérimenté une solution de reconnaissance à grande échelle, avec Idemia. "La CNIL a émis une fin de non-recevoir à cette expérimentation en France, raconte Félix Tréguer. Du coup, le ministère de l'Intérieur a passé une convention avec Interpol et le gouvernement de Singapour pour qu’elle puisse avoir lieu dans une plateforme de transports de la cité-État."
"Ces technologies ne sont pas encore parfaitement au point"
De nombreuses études montrent pourtant que beaucoup de ces solutions ne sont pas fiables.
Aux États-Unis, le National Institute of Standards and Technology (NIST) a démontré des biais et des erreurs d’identification, notamment raciaux. "J’ai fait le test sur mon visage, et plusieurs fois, on m'a présenté comme une personne noire, s’étonne le journaliste (blanc) Olivier Tesquet. Certaines personnes étaient catégorisées par des adjectifs extrêmement stigmatisants, comme l'appellation ‘négroïde’ (sic). En termes de résolution des biais algorithmiques, on a encore beaucoup de chemin à faire."
Pour l’avocat Patrice Navarro, le problème est que les algorithmes sont "entraînés" sur des bases de données qui comportent essentiellement des photos d'hommes caucasiens. "D'où la présence de nombreux faux positifs et de biais liés à l'ethnie ou au sexe, ce qui prouve qu'aujourd'hui ces technologies ne sont pas encore parfaitement au point. On capte des images de mauvaise qualité de gens en train de bouger, qui peuvent porter des casquettes, des lunettes de soleil... Tout ceci peut très bien fonctionner si c’est correctement encadré, et cela peut avoir beaucoup d'intérêt. Mais encore faut-il que cela fonctionne."
D’autres critères sont testés afin de les croiser avec les informations du visage, comme l’iris, l’oreille, ou encore les mouvements du corps et la démarche, caractéristique difficile à dissimuler aux caméras.
Des craintes à propos de la possible mutualisation des fichiers et des réseaux
De plus en plus de voix se font entendre pour exprimer leurs craintes quant à un possible fichage général de la population. Avec la mise en place de la carte d’identité numérique, obligatoire en Europe à l’horizon 2021, le risque d’un maillage global existe, selon Olivier Tesquet : "Le site d’investigation américain The Intercept (article en anglais), a révélé qu'une dizaine de pays européens, sous l'impulsion de l'Autriche, songent à mutualiser leurs bases de données de reconnaissance faciale, un peu comme on échange déjà des fichiers de police dans le cadre d'Europol."
La crainte des anti-reconnaissance faciale est qu’à terme la technologie permette de mailler les réseaux de caméras. La SNCF, sur la Côte d’Azur, est déjà équipée en caméras intelligentes. Or, selon Martin Drago de La Quadrature du net, elles sont parfaitement compatibles avec d’autres. "On pourra avoir une imbrication des différents outils liés à différents marchés de collectivités, d’entreprises publiques ou privées, avec à la fin un maillage de surveillance algorithmique de l'espace public assez impressionnant."
"L'usage va créer le besoin, et le besoin va créer un nouvel usage"
D’où la mise en garde lancée par le député Modem Philippe Latombe, membre du groupe de travail sur les droits et libertés constitutionnels à l'ère numérique de l’Assemblée nationale. Selon lui, un tel outil placé entre de mauvaises mains pourrait dériver vers une surveillance de masse à des fins autres que sécuritaires : "Tout le monde se dit qu’on pourrait utiliser la reconnaissance faciale afin de retrouver par exemple une personne atteinte d'Alzheimer qui a disparu. Sauf que les Chinois ont aussi commencé par ça, en contrôlant dans leur population des criminels qui avaient donné l'autorisation de faire de la comparaison. Au fur et à mesure, ils ont fait grossir le fichier jusqu'à avoir la totalité de la population, pour leur donner des notes de crédit social."
L'usage va créer le besoin, et le besoin va créer un nouvel usage. C'est une chaîne sans fin. Philippe Latombe, député Modem
Pour l’heure, le RGPD (règlement européen sur la protection des données) offre une protection aux citoyens européens, et en France, la CNIL veille à son application. Mais le RGPD n’a pas de régulateur, et la seconde n’intervient qu’a posteriori, alors que dans le même temps, les fabricants de matériel comptent bien s’engouffrer dans la brèche, grâce au soutien d’élus locaux réceptifs à leur demande, avec à la clé des enjeux financiers considérables.
Philippe Reltien et Cellule investigation de Radio France
Imaginez : le 26 juillet 2024. Les Jeux olympiques de Paris débutent. Une foule compacte se presse devant les grilles d’entrée du Stade de France. À l’entrée sud, une file semble avancer plus vite que les autres. En effet, certains spectateurs ont accepté que leur visage soit scruté et analysé par des caméras afin d’accéder plus rapidement aux lieux. C'est-ce que l'on appelle la comparaison faciale.
Ce futur hypothétique se prépare en France. Plusieurs expérimentations de ce type ont déjà eu lieu ou sont programmées. Avec une question centrale, celle du consentement des personnes.
Reconnaissance faciale : des expérimentations encadrées
En 2020, en France comme en Europe, la reconnaissance faciale en temps réel sur la voie publique n’est pas autorisée. Depuis 2012, seule la reconnaissance a posteriori est permise, notamment par la police, à l’aide du fichier de traitement des antécédents judiciaires (TAJ). D’après un rapport de l’Assemblée nationale publié en 2018, plus de 18 millions de personnes, dont 8 millions avec photos, sont recensées dans le TAJ.
C’est la CNIL (Commission nationale de l'informatique et des libertés) qui contrôle et rend un avis pour des expérimentations très encadrées. "Il y a un ensemble de règles qui s'appliquent, confirme Patrice Navarro, avocat au cabinet Hogan Lovells. Il faut qu'il y ait consentement des personnes, et que ce soit pour un motif particulièrement fort et proportionné d'intérêt public ou de sécurité publique."
Mais plusieurs exercices qui se rapprochent de la reconnaissance faciale ont déjà été effectués.
À Nice (Alpes-Maritimes), en février 2019, lors du carnaval, un logiciel israélien a permis d’identifier de supposés fichés S. Il s’agissait en réalité de volontaires figurants parmi des centaines de personnes consentantes, qui ont fourni leur photo, qui se savaient filmés et reconnus facialement.
Une autre tentative dans la même ville a fait polémique. Il s’agissait cette fois-ci d’analyser les émotions des passagers d’un tramway, sans les identifier, afin d'anticiper les problèmes potentiels. L’essai n’a finalement pas fonctionné à cause d’un problème technique de transmission d'images.
À Cannes (Alpes-Maritimes), pendant le confinement, la mairie a voulu vérifier si la population portait bien un masque en allant au marché. Pour cela, elle a fait appel à un prestataire, la start-up Datakalab. Un dispositif également installé dans la station de RER Châtelet-Les Halles à Paris.
Pour le directeur de Datakalab, Xavier Fischer, il ne s’agissait pas d’identifier les gens, mais seulement de compter les personnes portant un masque. Mais la CNIL n’a pas vu les choses ainsi. Elle a estimé que les personnes ne pouvaient exercer leur droit d’opposition puisqu'elles ne savaient pas qu’on analysait leur visage. Résultat, à Cannes, l’opération s’est arrêtée naturellement avec le déconfinement, et à Châtelet, la CNIL a mis un terme à l’essai.
À réécouter :
Hashtag > Jusqu'où ira la reconnaissance faciale ?
https://www.franceculture.fr/emissions/hashtag/jusquou-ira-la-reconnaissance-faciale
Un système prêt à être utilisé à Metz
A Metz (Moselle), l’avancée en la matière semble plus concrète. Après des débordements lors d’un match de Ligue 1 de football en 2016 contre Lyon, des supporters ont été interdits de stade. Comme l’autorise la loi Larrivé relative à la lutte contre le hooliganisme, le FC Metz a mis en place un fichier de ces supporters ultras avec leurs photos, et a investi dans un logiciel de reconnaissance faciale, prêt à être utilisé le cas échéant.
Des supporters se sont d’ailleurs demandé si ce logiciel n’a pas déjà été testé sur eux. Cette hypothèse a d’abord été émise par le journaliste Olivier Tesquet, dans son livre À la trace (Premier Parallèle, 2020). Ces supporters ont ensuite fait le rapprochement avec d’étranges consignes données un soir de match.
"Beaucoup d'entre eux ont dû retirer leurs lunettes, leurs casquettes ou leur écharpe à l’entrée du stade", raconte Pierre Barthélémy, avocat de l’Association nationale des supporters.
A-t-on vraiment testé la reconnaissance faciale en temps réel ce soir-là ? Guillaume Cazenave, directeur de la société messine Two-I, qui a vendu le matériel de vidéosurveillance au FC Metz, dit ne pas le savoir. "Nous ne sommes pas opérateur de système, se défend-il. À notre connaissance, il n'a pas été activé."
Du côté du club, on dément fermement avoir fait un test. La directrice du FC Metz, Hélène Schrub, a assuré par écrit à la cellule investigation de Radio France que la reconnaissance faciale n’avait été ni décidée ni testée, même si elle reconnaît que le projet existe et que le matériel le permet.
Des caméras qui ne s’intéressent pas qu’aux visages
À Marseille (Bouches-du-Rhône), la Cannebière est équipée d’une cinquantaine de caméras intelligentes. Elles ne reconnaissent pas formellement les gens, mais identifient des situations bien précises. "Ce projet a été mis en place 2019, détaille Felix Treguer, membre fondateur de l’association La Quadrature du net. Un algorithme d'analyse automatisée reconnaît des comportements et des événements suspects, et déclenche automatiquement des alertes et des suivis dans le centre de supervision."
Concrètement, il s'agit de repérer des objets abandonnés, des individus au sol, des taggeurs ou de la destruction de mobilier urbain. "Une fois que les caméras ont filmé et que les vidéos sont archivées, la police peut utiliser des filtres, complète Martin Drago, juriste pour La Quadrature du net, c’est-à-dire repérer des visages ou des silhouettes, pour identifier les personnes."
Des projets retoqués par la CNIL
Certaines communes ont tenté d’expérimenter d’autres dispositifs, tels que la reconnaissance sonore par exemple. C’est le cas à Saint-Etienne (Loire) où une filiale d’une société d’armement a proposé en 2019 à la mairie de coupler des caméras avec des micros pour identifier des bruits anormaux au sein d’un quartier sensible. "Les capteurs sonores peuvent déclencher une alerte qui permet l'envoi de drones automatiques pour voir ce qui se passe, décrit Martin Drago, avec ensuite la possibilité d’envoyer une patrouille humaine."
Ce projet a cependant été retoqué par la CNIL. Elle a considéré qu’il y avait un risque d’atteinte à la vie privée, la ville n’ayant pas apporté assez de garanties sur la possibilité ou non de reconnaître les voix des personnes.
"Les habitants sont sous-informés sur ces questions-là"
Pour le journaliste Olivier Tesquet, c’est par ces différentes expérimentations dans les communes que le terrain se prépare : "Ces municipalités se sont transformées en showrooms sécuritaires, analyse-t-il. À Valenciennes, Huawei offre des caméras de vidéosurveillance à la commune. À Nice et à Marseille, c’est l’américain Cisco qui a approché la région Paca pour l'installation de portiques de reconnaissance faciale à l'entrée des lycées. Le problème, c’est qu’il n’y a pas d'appel d'offres, et les habitants sont assez cruellement sous-informés sur ces questions-là."
À réécouter :
La Bulle économique > Reconnaissance faciale : quand les industriels poussent à son développement
https://www.franceculture.fr/emissions/la-bulle-economique/reconnaissance-faciale-quand-les-industriels-poussent-a-son-developpement
Le consentement : une question centrale
Au-delà de ces expérimentations temporaires, limitées ou retoquées, la loi autorise tout de même de faire de la reconnaissance faciale dans certains cas.
Le ministère de l’Intérieur développe actuellement une application d’identité numérique pour smartphones, Alicem. Reliée à FranceConnect, elle doit permettre, par comparaison faciale, d’ouvrir un compte pour renouveler ses papiers à distance (carte grise, permis de conduire, carte d’identité numérique, etc.). Cette technologie est déjà présente sur de nombreux appareils pour les déverrouiller.
Mais est-elle vraiment sûre ? "Pour lutter contre l'usurpation d'identité, on a de la reconnaissance faciale, mais également ce qu'on appelle de la reconnaissance du vivant, rassure Jérôme Letier, directeur de l’Agence nationale des titres sécurisés. On demande aux gens de bouger, pour être capable de distinguer une simple photographie ou un montage grossier du véritable visage de la personne."
Le développement de l’application a pu être autorisé car elle ne fonctionne qu’avec le consentement de l’utilisateur : si vous utilisez Alicem, cela veut dire que vous en acceptez le principe. Pour Jérôme Letier, les questions éthiques soulevées par la surveillance en temps réel dans la rue ne se posent pas ici.
À lire aussi :
Actualités > Le vaste chantier de notre identité numérique
https://www.franceculture.fr/numerique/le-vaste-chantier-de-notre-identite-numerique
Un QR code sur son billet dans les aéroports
La question du consentement, essentielle donc, est étudiée par les autorités pour équiper les infrastructures sportives ou touristiques d’équipements légaux de reconnaissance faciale.
Sont principalement concernés : les Jeux olympiques de Paris en 2024, ainsi que les aéroports. La société Idemia a déjà effectué des essais d’embarquement sur des vols avec des volontaires.
Les conditions générales de vente des billets pourraient contenir une clause de consentement qui permette de mettre en place un système de files différenciées, grâce à un QR code individuel qui incorpore une transcription de la photo d'identité, pour gagner du temps et de ne plus être obligé de présenter ses papiers à chaque étape. Guillaume Cazenave, de la société Two-I, rassure : "Si la personne ne donne pas son consentement, et c'est son droit qu’il est important de le respecter, il y aura toujours une file avec filtrage humain et manuel."
Un appel d’offres a officiellement été lancé par l’Agence nationale de la recherche.
La CNIL n'exclut pas de rendre un avis favorable pour les JO
Globalement, ce nouveau marché est évalué à sept milliards d’euros en France. Les Jeux de 2024, dont l’enjeu sécuritaire est très fort, ainsi que la Coupe du monde masculine de rugby en 2023, devraient être le laboratoire de ces technologies. "La filière industrielle française en matière de sécurité est en train de se positionner, analyse Félix Treguer, sociologue et fondateur de La Quadrature du net. Des sociétés comme Atos, Dassault Systèmes, Capgemini, sont en lien avec le ministère de l’Intérieur, via un comité, pour rafler les marchés publics autour des JO de 2024."
La CNIL n’exclut pas de rendre un avis favorable à la reconnaissance faciale pour les Jeux olympiques de Paris. "C’est envisageable, indique Marie-Laure Denis, présidente de la CNIL, à la cellule investigation de Radio France. Soit sur la base d'un consentement réel, soit par un texte qui autorise pour une durée limitée et sur un périmètre défini l'utilisation de ces pratiques. Tout cela est anticipable et faisable. Il s'agit encore une fois de concilier la protection des Français et la protection de leurs libertés, ce qui est également important."
Faire à l’étranger ce qui est interdit en France
Comme la France ne peut pas tester à grande échelle ces futurs équipements sur son territoire, certaines sociétés en profitent pour exporter du matériel à l’étranger, où les réglementations en la matière sont plus souples. La société Idemia équipe par exemple les services du FBI aux États-Unis, ou encore des espaces publics en Chine.
Le ministère de l’Intérieur, via la préfecture de police de Paris, teste à l’étranger des dispositifs interdits en France. Toujours dans l'optique des JO, ils ont expérimenté une solution de reconnaissance à grande échelle, avec Idemia. "La CNIL a émis une fin de non-recevoir à cette expérimentation en France, raconte Félix Tréguer. Du coup, le ministère de l'Intérieur a passé une convention avec Interpol et le gouvernement de Singapour pour qu’elle puisse avoir lieu dans une plateforme de transports de la cité-État."
"Ces technologies ne sont pas encore parfaitement au point"
De nombreuses études montrent pourtant que beaucoup de ces solutions ne sont pas fiables.
Aux États-Unis, le National Institute of Standards and Technology (NIST) a démontré des biais et des erreurs d’identification, notamment raciaux. "J’ai fait le test sur mon visage, et plusieurs fois, on m'a présenté comme une personne noire, s’étonne le journaliste (blanc) Olivier Tesquet. Certaines personnes étaient catégorisées par des adjectifs extrêmement stigmatisants, comme l'appellation ‘négroïde’ (sic). En termes de résolution des biais algorithmiques, on a encore beaucoup de chemin à faire."
Pour l’avocat Patrice Navarro, le problème est que les algorithmes sont "entraînés" sur des bases de données qui comportent essentiellement des photos d'hommes caucasiens. "D'où la présence de nombreux faux positifs et de biais liés à l'ethnie ou au sexe, ce qui prouve qu'aujourd'hui ces technologies ne sont pas encore parfaitement au point. On capte des images de mauvaise qualité de gens en train de bouger, qui peuvent porter des casquettes, des lunettes de soleil... Tout ceci peut très bien fonctionner si c’est correctement encadré, et cela peut avoir beaucoup d'intérêt. Mais encore faut-il que cela fonctionne."
D’autres critères sont testés afin de les croiser avec les informations du visage, comme l’iris, l’oreille, ou encore les mouvements du corps et la démarche, caractéristique difficile à dissimuler aux caméras.
Des craintes à propos de la possible mutualisation des fichiers et des réseaux
De plus en plus de voix se font entendre pour exprimer leurs craintes quant à un possible fichage général de la population. Avec la mise en place de la carte d’identité numérique, obligatoire en Europe à l’horizon 2021, le risque d’un maillage global existe, selon Olivier Tesquet : "Le site d’investigation américain The Intercept (article en anglais), a révélé qu'une dizaine de pays européens, sous l'impulsion de l'Autriche, songent à mutualiser leurs bases de données de reconnaissance faciale, un peu comme on échange déjà des fichiers de police dans le cadre d'Europol."
La crainte des anti-reconnaissance faciale est qu’à terme la technologie permette de mailler les réseaux de caméras. La SNCF, sur la Côte d’Azur, est déjà équipée en caméras intelligentes. Or, selon Martin Drago de La Quadrature du net, elles sont parfaitement compatibles avec d’autres. "On pourra avoir une imbrication des différents outils liés à différents marchés de collectivités, d’entreprises publiques ou privées, avec à la fin un maillage de surveillance algorithmique de l'espace public assez impressionnant."
"L'usage va créer le besoin, et le besoin va créer un nouvel usage"
D’où la mise en garde lancée par le député Modem Philippe Latombe, membre du groupe de travail sur les droits et libertés constitutionnels à l'ère numérique de l’Assemblée nationale. Selon lui, un tel outil placé entre de mauvaises mains pourrait dériver vers une surveillance de masse à des fins autres que sécuritaires : "Tout le monde se dit qu’on pourrait utiliser la reconnaissance faciale afin de retrouver par exemple une personne atteinte d'Alzheimer qui a disparu. Sauf que les Chinois ont aussi commencé par ça, en contrôlant dans leur population des criminels qui avaient donné l'autorisation de faire de la comparaison. Au fur et à mesure, ils ont fait grossir le fichier jusqu'à avoir la totalité de la population, pour leur donner des notes de crédit social."
L'usage va créer le besoin, et le besoin va créer un nouvel usage. C'est une chaîne sans fin. Philippe Latombe, député Modem
Pour l’heure, le RGPD (règlement européen sur la protection des données) offre une protection aux citoyens européens, et en France, la CNIL veille à son application. Mais le RGPD n’a pas de régulateur, et la seconde n’intervient qu’a posteriori, alors que dans le même temps, les fabricants de matériel comptent bien s’engouffrer dans la brèche, grâce au soutien d’élus locaux réceptifs à leur demande, avec à la clé des enjeux financiers considérables.
Philippe Reltien et Cellule investigation de Radio France
"Notre plan pré-COVID n'est plus réalisable" a expliqué la PDG Mitchell Baker. La Mozilla Corporation entend se recentrer sur ses produits commerciaux.
Pendant que les dispositifs de police prédictive (comme PredPol) commencent à être interdits ou abandonnés aux États-Unis, la police française et plusieurs collectivités continuent à acheter et utiliser des équivalents français, à l’image de « Map Révélation » proposé par l’entreprise angevine « Sûreté Globale ». Cela au détriment des risques de discriminations qu’impliquent ces logiciels de surveillance, et en l’absence même de toute preuve de leur intérêt...
[...] Les lancements commerciaux de la 5G représentent aujourd’hui les premières étapes d’un déploiement plus large et n’exploitent pas toutes les capacités de la technologie. Autrement dit : les services 5G actuels utilisent les bandes de fréquences inférieures de la 5G. Ces fréquences inférieures sont plus résistantes ce qui a permis aux opérateurs de lancer ces services en grande partie grâce aux macro-cellules existantes construites pour les services 3G et 4G. Les aspects les plus révolutionnaires de la capacité 5G nécessiteront des fréquences plus élevées. Or, les lois de la physique nous montrent que ces signaux sont plus fragiles et nécessiteront donc beaucoup plus d’antennes que ce que les sites actuels de macro-cellules peuvent prendre en charge. Cette technologie aura donc besoin d’une capacité en bande passante que seule la fibre optique peut fournir. Densification du réseau.
Une des façons d’augmenter la couverture/la capacité de la bande passante d’un réseau mobile est de la « densifier » en ajoutant des secteurs, ce qui signifie déployer davantage de macro-cellules. De cette façon, le nombre d’abonnés se connectant à une cellule donnée et partageant la bande passante disponible est réduit, de sorte qu’une plus grande largeur de bande par cellule puisse être allouée à chaque abonné. Toutefois, la réduction de la distance entre les sites dans la couche macro est un défi car il est difficile de trouver de nouveaux sites de macro-cellules et cela peut être coûteux, en particulier dans les environnements urbains. Les bandes de fréquences étant vendues aux enchères aux opérateurs par les régulateurs nationaux et le coût des licences pouvant se chiffrer en milliards, la réutilisation des fréquences est une nécessité. Cela peut être facilité par des cellules de faible puissance conçues pour couvrir de petites zones. Ces versions à faible puissance des microcellules sont appelées petites cellules (small cells) et, combinées, elles peuvent favoriser une utilisation plus efficace du spectre radioélectrique. La densification des macro-cellules sera nécessaire dans les pays où les signaux 3G et la 4G sont faibles afin d’atteindre les objectifs de couverture et de bande passante de la 5G. Dans les autres cas où la densité des cellules avant le déploiement de la 5G est déjà satisfaisante, les opérateurs de téléphonie mobile n’auront qu’à ajouter les nouvelles radios/signaux 5G aux sites existants. Cela est particulièrement vrai si la 5G est mise en œuvre dans la bande Sub 6GHz où les technologies 3G et 4G fonctionnent également et où la couverture est donc assez similaire. De plus, la technologie 5G fonctionnera à des fréquences plus élevées dans la bande des ondes millimétriques. Avec ces fréquences plus élevées, le spectre est entièrement disponible, ce qui permet plus de bande passante, des taux de pointe plus élevés et des antennes à facteur de forme beaucoup plus petites. La couverture à ces fréquences plus élevées est plus courte, mais on s’attend à ce que le MIMO massif et des antennes formant des faisceaux radios aident les opérateurs de téléphonie mobile à surmonter ce problème qui, autrement, obligerait à une densification accrue des cellules. Ainsi, la densification est définie comme le déploiement de nouveaux sites cellulaires inter-distants plus petits afin de fournir la 5G qui sera nécessaire pour apporter une couverture au niveau escompté dans les pays ayant une faible couverture 3G et 4G, tandis que les pays ayant une bonne densité cellulaire pourront réutiliser une grande partie de l’infrastructure cellulaire existante. Chaque nouveau site mobile nécessitant données et énergie, ce facteur de connectivité représente le coût le plus élevé dans la densification du réseau. Il est donc primordial que les opérateurs évitent cet investissement jusqu’à ce que la nature des services fournis sur le réseau 5G l’exige, c’est-à-dire la fiabilité de la couverture et la latence en plus de l’exigence première de bande passante. Les défis de la connectivité optique. La seule façon de fournir la capacité du réseau d’accès radio (RAN) densifié nécessaire pour la 5G sera par fibre optique, vu la quantité de données qui devront être transportées sur le réseau. Le cliché de la « capacité illimitée » a été associé à la fibre optique depuis les premiers déploiements commerciaux dans les années 70, et il reste vrai qu’aucune autre technologie ne peut remettre en cause la fibre, et c’est pourquoi le rôle de la fibre dans la 5G sera crucial. [...] Nous avons évoqué précédemment le niveau de densification réseau nécessaire pour la 5G et la fibre afin de soutenir ce qui se circulera le long des mêmes rues que les réseaux FTTH. Il parait donc logique que les deux réseaux convergent. Concrètement, connecter un site 5G revient à connecter une maison à laquelle on ne s’attendait pas sur un réseau FTTH. C’est pourquoi les opérateurs conçoivent une capacité supplémentaire dans leurs réseaux FTTH. L’art de la convergence des réseaux consiste en réalité à prévoir où cette capacité supplémentaire sera nécessaire. Le fait que différents pays se trouvent à des stades différents de leur déploiement FTTH et RAN ajoute un niveau de complexité supplémentaire. [...] Des investissements importants dans des déploiements FTTH sont actuellement réalisés à grande échelle dans toute l’Europe. Un fort potentiel existe pour faire avancer ces investissements en prenant en compte la capacité de la convergence des réseaux FTTH / 5G. Il s’agit d’une période critique dans le cycle de vie du déploiement de la fibre optique et les bonnes décisions prises aujourd’hui nous récompenseront sur de nombreuses prochaines années.
Une des façons d’augmenter la couverture/la capacité de la bande passante d’un réseau mobile est de la « densifier » en ajoutant des secteurs, ce qui signifie déployer davantage de macro-cellules. De cette façon, le nombre d’abonnés se connectant à une cellule donnée et partageant la bande passante disponible est réduit, de sorte qu’une plus grande largeur de bande par cellule puisse être allouée à chaque abonné. Toutefois, la réduction de la distance entre les sites dans la couche macro est un défi car il est difficile de trouver de nouveaux sites de macro-cellules et cela peut être coûteux, en particulier dans les environnements urbains. Les bandes de fréquences étant vendues aux enchères aux opérateurs par les régulateurs nationaux et le coût des licences pouvant se chiffrer en milliards, la réutilisation des fréquences est une nécessité. Cela peut être facilité par des cellules de faible puissance conçues pour couvrir de petites zones. Ces versions à faible puissance des microcellules sont appelées petites cellules (small cells) et, combinées, elles peuvent favoriser une utilisation plus efficace du spectre radioélectrique. La densification des macro-cellules sera nécessaire dans les pays où les signaux 3G et la 4G sont faibles afin d’atteindre les objectifs de couverture et de bande passante de la 5G. Dans les autres cas où la densité des cellules avant le déploiement de la 5G est déjà satisfaisante, les opérateurs de téléphonie mobile n’auront qu’à ajouter les nouvelles radios/signaux 5G aux sites existants. Cela est particulièrement vrai si la 5G est mise en œuvre dans la bande Sub 6GHz où les technologies 3G et 4G fonctionnent également et où la couverture est donc assez similaire. De plus, la technologie 5G fonctionnera à des fréquences plus élevées dans la bande des ondes millimétriques. Avec ces fréquences plus élevées, le spectre est entièrement disponible, ce qui permet plus de bande passante, des taux de pointe plus élevés et des antennes à facteur de forme beaucoup plus petites. La couverture à ces fréquences plus élevées est plus courte, mais on s’attend à ce que le MIMO massif et des antennes formant des faisceaux radios aident les opérateurs de téléphonie mobile à surmonter ce problème qui, autrement, obligerait à une densification accrue des cellules. Ainsi, la densification est définie comme le déploiement de nouveaux sites cellulaires inter-distants plus petits afin de fournir la 5G qui sera nécessaire pour apporter une couverture au niveau escompté dans les pays ayant une faible couverture 3G et 4G, tandis que les pays ayant une bonne densité cellulaire pourront réutiliser une grande partie de l’infrastructure cellulaire existante. Chaque nouveau site mobile nécessitant données et énergie, ce facteur de connectivité représente le coût le plus élevé dans la densification du réseau. Il est donc primordial que les opérateurs évitent cet investissement jusqu’à ce que la nature des services fournis sur le réseau 5G l’exige, c’est-à-dire la fiabilité de la couverture et la latence en plus de l’exigence première de bande passante. Les défis de la connectivité optique. La seule façon de fournir la capacité du réseau d’accès radio (RAN) densifié nécessaire pour la 5G sera par fibre optique, vu la quantité de données qui devront être transportées sur le réseau. Le cliché de la « capacité illimitée » a été associé à la fibre optique depuis les premiers déploiements commerciaux dans les années 70, et il reste vrai qu’aucune autre technologie ne peut remettre en cause la fibre, et c’est pourquoi le rôle de la fibre dans la 5G sera crucial. [...] Nous avons évoqué précédemment le niveau de densification réseau nécessaire pour la 5G et la fibre afin de soutenir ce qui se circulera le long des mêmes rues que les réseaux FTTH. Il parait donc logique que les deux réseaux convergent. Concrètement, connecter un site 5G revient à connecter une maison à laquelle on ne s’attendait pas sur un réseau FTTH. C’est pourquoi les opérateurs conçoivent une capacité supplémentaire dans leurs réseaux FTTH. L’art de la convergence des réseaux consiste en réalité à prévoir où cette capacité supplémentaire sera nécessaire. Le fait que différents pays se trouvent à des stades différents de leur déploiement FTTH et RAN ajoute un niveau de complexité supplémentaire. [...] Des investissements importants dans des déploiements FTTH sont actuellement réalisés à grande échelle dans toute l’Europe. Un fort potentiel existe pour faire avancer ces investissements en prenant en compte la capacité de la convergence des réseaux FTTH / 5G. Il s’agit d’une période critique dans le cycle de vie du déploiement de la fibre optique et les bonnes décisions prises aujourd’hui nous récompenseront sur de nombreuses prochaines années.
La firme de Redmond a développé l'outil gratuit File Recovery pour Windows 10. Il a pour objectif de récupérer les fichiers supprimés ou perdus.
Tout le monde a au moins une fois dans sa vie supprimer un fichier par erreur, sans avoir fait de sauvegarde. Pour les plus experts et si le fichier était important, il existe des outils de récupération de fichiers. En général, ces solutions sont issues d’éditeur tiers et payantes.
Dans un tweet, WalkingCat, spécialiste de Microsoft, a déniché une application créée par la firme de Redmond baptisée « Windows Recovery Tool » :
https://www.microsoft.com/en-us/p/windows-file-recovery/9n26s50ln705?activetab=pivot:regionofsystemrequirementstab
Cet outil gratuit est maintenant disponible sur le store de l'éditeur et s’adresse aux utilisateurs de Windows 10 (au minimum avec la mise à jour 1904). Dans son intitulé, l’éditeur vante son produit, « vous avez accidentellement supprimé un fichier important ? Nettoyé votre disque dur ? Vous ne savez pas quoi faire avec des données corrompues ? Windows File Recovery peut vous aider à récupérer vos données personnelles ». La solution propose de récupérer des fichiers sur un disque dur, un clé USB et même une carte SD. Sur le plan des formats, l’outil est capable de restaurer des fichiers : JPEG, PDF, PNG, MPEG, Office, MP3 & MP4, ZIP,…
3 modes disponibles et une interface en ligne de commandes
Dans le détail, Recovery File prend en charge trois modes :
- Par défaut : ce mode utilise MFT (table de fichiers principale) pour localiser les fichiers perdus. Il fonctionne correctement quand la MFT et les segments de fichier, également appelé FRS (File Record Segments,) sont gérés.
-Le mode segment : Il ne nécessite pas de MFT, mais des segments. Ces derniers sont des résumés d’information de fichier comme le nom, la date, la taille, le type et l’index des clusters. Ils sont stockés par NTFS dans une MFT.
- Le mode signature : Il est parfaitement adapté à la recherche de fichiers spécifiques sur des périphériques de stockage externe comme une clé USB.
Par contre pour l'utiliser, Microsoft ne propose pas d’interface graphique accessible au simple quidam. Une fois installée, l’application démarre en mode ligne de commande avec l’ensemble des options disponibles.
Tout le monde a au moins une fois dans sa vie supprimer un fichier par erreur, sans avoir fait de sauvegarde. Pour les plus experts et si le fichier était important, il existe des outils de récupération de fichiers. En général, ces solutions sont issues d’éditeur tiers et payantes.
Dans un tweet, WalkingCat, spécialiste de Microsoft, a déniché une application créée par la firme de Redmond baptisée « Windows Recovery Tool » :
https://www.microsoft.com/en-us/p/windows-file-recovery/9n26s50ln705?activetab=pivot:regionofsystemrequirementstab
Cet outil gratuit est maintenant disponible sur le store de l'éditeur et s’adresse aux utilisateurs de Windows 10 (au minimum avec la mise à jour 1904). Dans son intitulé, l’éditeur vante son produit, « vous avez accidentellement supprimé un fichier important ? Nettoyé votre disque dur ? Vous ne savez pas quoi faire avec des données corrompues ? Windows File Recovery peut vous aider à récupérer vos données personnelles ». La solution propose de récupérer des fichiers sur un disque dur, un clé USB et même une carte SD. Sur le plan des formats, l’outil est capable de restaurer des fichiers : JPEG, PDF, PNG, MPEG, Office, MP3 & MP4, ZIP,…
3 modes disponibles et une interface en ligne de commandes
Dans le détail, Recovery File prend en charge trois modes :
- Par défaut : ce mode utilise MFT (table de fichiers principale) pour localiser les fichiers perdus. Il fonctionne correctement quand la MFT et les segments de fichier, également appelé FRS (File Record Segments,) sont gérés.
-Le mode segment : Il ne nécessite pas de MFT, mais des segments. Ces derniers sont des résumés d’information de fichier comme le nom, la date, la taille, le type et l’index des clusters. Ils sont stockés par NTFS dans une MFT.
- Le mode signature : Il est parfaitement adapté à la recherche de fichiers spécifiques sur des périphériques de stockage externe comme une clé USB.
Par contre pour l'utiliser, Microsoft ne propose pas d’interface graphique accessible au simple quidam. Une fois installée, l’application démarre en mode ligne de commande avec l’ensemble des options disponibles.
Pour accompagner vers le Libre les organisations qui agissent pour l’Économie Sociale et Solidaire, il fallait davantage qu’un guide. Il fallait un outil évolutif, un outil que ces organisations puissent modifier, tronquer, bidouiller, bref s’approprier les contenus pour mieux les adapter à leurs particularités. Audrey nous présente [RÉSOLU], un projet contributopique…
Framasoft s’est associée au Chaton Picasoft et à la Mission Libre-Éducation Nouvelle des CEMÉA dans la réalisation de [RÉSOLU], un projet d’éducation populaire qui vise à accompagner l’adoption d’outils libres par les associations et les organisations de l’Économie Sociale et Solidaire.
Pour les accompagner dans leur transition, nous publions aujourd’hui un ensemble de fiches didactiques, sous licence libre et aux formats PDF, web et papier. Quelle est notre démarche ? D’abord présenter aux acteur⋅ice⋅s de l’ESS la nécessaire cohérence entre leurs valeurs et celles inscrites dans les outils numériques qu’iels utilisent, puis leur faciliter la prise en main de solutions alternatives libres.
Plus qu’un guide, [RÉSOLU] est un mouvement qui souhaite rapprocher les communautés du Libre et de l’ESS. Il s’agit de défendre nos libertés numériques et de promouvoir un modèle de société fondé sur la solidarité et le partage.
Pour contribuer à faire vivre ces [R]éseaux [É]thiques et en savoir plus sur les [S]olutions [O]uvertes pour [L]ibérer vos [U]sages, rendez-vous sur le site de Framabook et de [Résolu] !
À la recherche de cohérence entre valeurs éthiques et usages numériques
Si vous avez déjà recherché la solution à un problème informatique sur des forums en ligne, la mention « [RÉSOLU] » vous est sans doute familière. Lorsque vous la croisez dans le titre donné au problème à résoudre, c’est bon signe : elle précise qu’une des solutions proposées a effectivement résolu le problème initial.
Le problème auquel nous souhaitons apposer la mention [RÉSOLU] s’ouvre par la question suivante : comment se fait-il que tant d’organisations qui promeuvent des principes de solidarité, de partage, d’accessibilité et d’émancipation agissent avec des outils numériques privateurs et peu respectueux de ces considérations éthiques ?
Si nous nous posons cette question, c’est parce que nous pensons que construire un monde meilleur, comme s’y emploie l’Économie Sociale et Solidaire, n’est possible qu’avec des outils numériques qui nous donnent toute la liberté de le faire. Avec le projet [RÉSOLU], nous souhaitons établir une forte cohérence entre les pratiques numériques des membres de l’ESS et les valeurs qu’iels partagent avec la communauté libriste.
Soyez donc [RÉSOLU]E.S à ne plus servir, et vous serez libres
La célèbre maxime d’Étienne de La Boétie porte en elle la démarche du projet [RÉSOLU] : s’extraire de la servitude aux outils privateurs de libertés numériques. Il s’agit de commencer par comprendre la nature de la servitude, de vouloir ensuite s’en extraire, puis d’être en capacité de le faire. [RÉSOLU] se propose d’accompagner ce cheminement, en se rapprochant au plus près des besoins et des aspirations des associations quant à leurs pratiques numériques.
Concrètement, cela se traduit par la mise à disposition d’un ensemble de fiches théoriques et pratiques, classées selon trois types d’actions collectives : collaborer, communiquer et organiser.
Réalisée avec le soutien de la Fondation Free, la première version de cette collection prend la forme d’un manuel au format PDF, disponible sur le site de Framabook, et d’un site web (soyezresolu.org) où vous pourrez naviguer entre les fiches et les exporter séparément en PDF.
Les fiches théoriques ont pour but d’ancrer les enjeux d’un changement des usages numériques dans le contexte de l’ESS. Il s’agit par exemple de comprendre en quoi la confidentialité des données personnelles se joue dans le choix des logiciels que l’on utilise pour communiquer, et pourquoi il est important de se poser cette question, que l’on soit militant ou non.
L’idée n’est pas de porter un discours culpabilisant, mais d’exposer les enjeux politiques, économiques et sociaux associés aux choix d’outils numériques. Si les associations portent une grande attention à ces enjeux pour définir le périmètre de leurs activités, l’objectif de [RÉSOLU] est de les convaincre qu’il est dans leur propre intérêt d’élargir cette attention à leurs usages numériques.
Les fiches pratiques ont un rôle tout aussi crucial : présenter des solutions alternatives libres et accompagner leur prise en main, avec des méthodes et des cas de figure concrets. Par exemple, une fiche consacrée au service Nextcloud explique comment partager des documents de façon sécurisée et comment synchroniser des agendas ; une autre sur le logiciel Garradin détaille comment reprendre le contrôle sur ses données de comptabilité. Mais [RÉSOLU] est plus qu’un catalogue…
Ces fiches proposent de découvrir les fonctionnalités utiles à l’organisation, la communication et la collaboration au sein de structures associatives, institutionnelles ou privées. Elles suggèrent quelques bonnes pratiques et avertissent des éventuelles difficultés ou limites à prendre en compte. En effet, accompagner le changement implique d’être transparent sur les risques et les obstacles potentiels ; [RÉSOLU] ne les efface pas, mais soulève les questions à se poser pour adopter les logiciels libres dans les meilleures conditions possibles.
[RÉSOLU] est entre vos mains : construisons ensemble les réseaux qui libèrent !
L’identification de solutions libres correspondant aux besoins de son organisation et la compréhension des raisons et des moyens de leur adoption constituent une avancée certaine vers la libération des usages numériques. Vous êtes résolu⋅e et prêt⋅e à le faire ? Allons-y ensemble !
S’il est nécessaire d’avoir confiance en soi pour se diriger sereinement vers un terrain inconnu, il est aussi important d’avoir confiance en ses compagnons d’aventure. Les associations qui ont déjà adopté des outils libres, les hébergeurs du CHATONS, les organismes d’éducation populaire et toute autre structure qui souhaite accompagner celles qui en ont besoin sont autant de contacts possibles pour ne pas avancer isolément.
Utilisé comme support pour des formations animées par les CEMÉA, nous espérons que [RÉSOLU] le sera aussi par un grand nombre d’acteur⋅ice⋅s de l’éducation populaire. Des exemplaires imprimés de [RÉSOLU] sont distribués de main en main (au sein des CEMEA, ou lors d’événements auxquels participeront Framasoft et Picasoft), auprès des organisations et des personnes intéressées par l’obtention d’une version papier.
Néanmoins, c’est d’abord aux utilisateur⋅ice⋅s de s’emparer de [RÉSOLU]. Les versions électroniques sont donc disponibles sous licence CC BY-SA, afin de multiplier les supports :
des versions PDF à des fins d’impressions et les sources au format ouvert pour modifications et enrichissements sur Framabook ;
une version web sur soyezresolu.org, avec la possibilité d’exporter chaque fiche en PDF.
Le projet [RÉSOLU] évoluera au gré de vos contributions : si vous le souhaitez, vous pouvez améliorer le graphisme ou la rédaction des premières fiches, en créer de nouvelles, ou encore participer au développement de la version web (rendez-vous sur le dépôt du projet).
Diffusez ! modifiez ! publiez !
Pour en savoir plus, vous pouvez contacter Picasoft (@), Framasoft (@) et la Mission Libre-Éducation Nouvelle des CEMÉA (@) via leurs comptes Mastodon.
Framasoft s’est associée au Chaton Picasoft et à la Mission Libre-Éducation Nouvelle des CEMÉA dans la réalisation de [RÉSOLU], un projet d’éducation populaire qui vise à accompagner l’adoption d’outils libres par les associations et les organisations de l’Économie Sociale et Solidaire.
Pour les accompagner dans leur transition, nous publions aujourd’hui un ensemble de fiches didactiques, sous licence libre et aux formats PDF, web et papier. Quelle est notre démarche ? D’abord présenter aux acteur⋅ice⋅s de l’ESS la nécessaire cohérence entre leurs valeurs et celles inscrites dans les outils numériques qu’iels utilisent, puis leur faciliter la prise en main de solutions alternatives libres.
Plus qu’un guide, [RÉSOLU] est un mouvement qui souhaite rapprocher les communautés du Libre et de l’ESS. Il s’agit de défendre nos libertés numériques et de promouvoir un modèle de société fondé sur la solidarité et le partage.
Pour contribuer à faire vivre ces [R]éseaux [É]thiques et en savoir plus sur les [S]olutions [O]uvertes pour [L]ibérer vos [U]sages, rendez-vous sur le site de Framabook et de [Résolu] !
À la recherche de cohérence entre valeurs éthiques et usages numériques
Si vous avez déjà recherché la solution à un problème informatique sur des forums en ligne, la mention « [RÉSOLU] » vous est sans doute familière. Lorsque vous la croisez dans le titre donné au problème à résoudre, c’est bon signe : elle précise qu’une des solutions proposées a effectivement résolu le problème initial.
Le problème auquel nous souhaitons apposer la mention [RÉSOLU] s’ouvre par la question suivante : comment se fait-il que tant d’organisations qui promeuvent des principes de solidarité, de partage, d’accessibilité et d’émancipation agissent avec des outils numériques privateurs et peu respectueux de ces considérations éthiques ?
Si nous nous posons cette question, c’est parce que nous pensons que construire un monde meilleur, comme s’y emploie l’Économie Sociale et Solidaire, n’est possible qu’avec des outils numériques qui nous donnent toute la liberté de le faire. Avec le projet [RÉSOLU], nous souhaitons établir une forte cohérence entre les pratiques numériques des membres de l’ESS et les valeurs qu’iels partagent avec la communauté libriste.
Soyez donc [RÉSOLU]E.S à ne plus servir, et vous serez libres
La célèbre maxime d’Étienne de La Boétie porte en elle la démarche du projet [RÉSOLU] : s’extraire de la servitude aux outils privateurs de libertés numériques. Il s’agit de commencer par comprendre la nature de la servitude, de vouloir ensuite s’en extraire, puis d’être en capacité de le faire. [RÉSOLU] se propose d’accompagner ce cheminement, en se rapprochant au plus près des besoins et des aspirations des associations quant à leurs pratiques numériques.
Concrètement, cela se traduit par la mise à disposition d’un ensemble de fiches théoriques et pratiques, classées selon trois types d’actions collectives : collaborer, communiquer et organiser.
Réalisée avec le soutien de la Fondation Free, la première version de cette collection prend la forme d’un manuel au format PDF, disponible sur le site de Framabook, et d’un site web (soyezresolu.org) où vous pourrez naviguer entre les fiches et les exporter séparément en PDF.
Les fiches théoriques ont pour but d’ancrer les enjeux d’un changement des usages numériques dans le contexte de l’ESS. Il s’agit par exemple de comprendre en quoi la confidentialité des données personnelles se joue dans le choix des logiciels que l’on utilise pour communiquer, et pourquoi il est important de se poser cette question, que l’on soit militant ou non.
L’idée n’est pas de porter un discours culpabilisant, mais d’exposer les enjeux politiques, économiques et sociaux associés aux choix d’outils numériques. Si les associations portent une grande attention à ces enjeux pour définir le périmètre de leurs activités, l’objectif de [RÉSOLU] est de les convaincre qu’il est dans leur propre intérêt d’élargir cette attention à leurs usages numériques.
Les fiches pratiques ont un rôle tout aussi crucial : présenter des solutions alternatives libres et accompagner leur prise en main, avec des méthodes et des cas de figure concrets. Par exemple, une fiche consacrée au service Nextcloud explique comment partager des documents de façon sécurisée et comment synchroniser des agendas ; une autre sur le logiciel Garradin détaille comment reprendre le contrôle sur ses données de comptabilité. Mais [RÉSOLU] est plus qu’un catalogue…
Ces fiches proposent de découvrir les fonctionnalités utiles à l’organisation, la communication et la collaboration au sein de structures associatives, institutionnelles ou privées. Elles suggèrent quelques bonnes pratiques et avertissent des éventuelles difficultés ou limites à prendre en compte. En effet, accompagner le changement implique d’être transparent sur les risques et les obstacles potentiels ; [RÉSOLU] ne les efface pas, mais soulève les questions à se poser pour adopter les logiciels libres dans les meilleures conditions possibles.
[RÉSOLU] est entre vos mains : construisons ensemble les réseaux qui libèrent !
L’identification de solutions libres correspondant aux besoins de son organisation et la compréhension des raisons et des moyens de leur adoption constituent une avancée certaine vers la libération des usages numériques. Vous êtes résolu⋅e et prêt⋅e à le faire ? Allons-y ensemble !
S’il est nécessaire d’avoir confiance en soi pour se diriger sereinement vers un terrain inconnu, il est aussi important d’avoir confiance en ses compagnons d’aventure. Les associations qui ont déjà adopté des outils libres, les hébergeurs du CHATONS, les organismes d’éducation populaire et toute autre structure qui souhaite accompagner celles qui en ont besoin sont autant de contacts possibles pour ne pas avancer isolément.
Utilisé comme support pour des formations animées par les CEMÉA, nous espérons que [RÉSOLU] le sera aussi par un grand nombre d’acteur⋅ice⋅s de l’éducation populaire. Des exemplaires imprimés de [RÉSOLU] sont distribués de main en main (au sein des CEMEA, ou lors d’événements auxquels participeront Framasoft et Picasoft), auprès des organisations et des personnes intéressées par l’obtention d’une version papier.
Néanmoins, c’est d’abord aux utilisateur⋅ice⋅s de s’emparer de [RÉSOLU]. Les versions électroniques sont donc disponibles sous licence CC BY-SA, afin de multiplier les supports :
des versions PDF à des fins d’impressions et les sources au format ouvert pour modifications et enrichissements sur Framabook ;
une version web sur soyezresolu.org, avec la possibilité d’exporter chaque fiche en PDF.
Le projet [RÉSOLU] évoluera au gré de vos contributions : si vous le souhaitez, vous pouvez améliorer le graphisme ou la rédaction des premières fiches, en créer de nouvelles, ou encore participer au développement de la version web (rendez-vous sur le dépôt du projet).
Diffusez ! modifiez ! publiez !
Pour en savoir plus, vous pouvez contacter Picasoft (@), Framasoft (@) et la Mission Libre-Éducation Nouvelle des CEMÉA (@) via leurs comptes Mastodon.
Hier je vous parlais des nouveautés de la version 2004 de Windows 10. Mais on le sait, une nouvelle version de Windows 10 n’arrive jamais sans bugs.
Dans cet article c’est justement le sujet, voici la liste des problèmes connus sur cette nouvelle mouture de Windows 10. Alors, soyez attentif et comme je vous le dis souvent, ne vous pressez pas pour mettre à jour, jeter un oeil à cette liste avant.
Dans cet article c’est justement le sujet, voici la liste des problèmes connus sur cette nouvelle mouture de Windows 10. Alors, soyez attentif et comme je vous le dis souvent, ne vous pressez pas pour mettre à jour, jeter un oeil à cette liste avant.
Après les gilets jaunes ou les stylos rouges, les blouses blanches sont désormais omniprésentes sur les réseaux sociaux.
Réseaux
Groupes de soutien au professeur Raoult, débats sur les mesures sanitaires, expressions de solidarité envers les soignants … en cette période de confinement et de distanciation sociale, les réseaux sociaux sont encore plus que d'habitude des lieux privilégiés d'expression de la colère des français.
Comment la défiance s'exprime-t-elle sur les réseaux sociaux en temps de pandémie ? Notre invité est Olivier Ertzscheid, enseignant-chercheur à l’Université de Nantes en sciences de l’information, auteur notamment de "L’appétit des géants. Pouvoir des algorithmes, ambitions des plateformes" (C&F éditions).
Didier Raoult, figure émergente des réseaux sociaux :
"On a vu sur les réseaux sociaux un phénomène d’unisson de la couverture médiatique en temps de crise qui s’est cristallisé sur une figure médiatique émergente en la personne de Didier Raoult et son traitement miracle. Et à partir de là, une logique virale s’est enclenchée qui se structure sur des sentiments de colère, d’injustice ou les deux cumulés car ce sont les sentiments qui se propagent le mieux sur les réseaux sociaux."
Le Professeur Raoult est devenu très rapidement le sujet d’une polémique puisque du jour au lendemain son traitement miracle a basculé dans le soupçon. A partir de là, les réseaux sociaux ont foncé de manière univoque vers la thèse du soutien à l’homme et au trraitment qui était injustement condamné par les médias. Et en ce sens, le Professeur Raoult a la figure de l'accrocheur de viralité car il s'éloigne de la vision classique du scientifique terne. Olivier Ertzscheid
Leviers d'influence des réseaux sociaux en temps de crise :
"On s'est d'abord focalisé sur le traitement ou l’individu. La en l’occurrence, la chloroquine et la figure de Didier Raoult ont été immédiatement associées l’une à l’autre. Et on a vraiment besoin de ce phénomène d’incarnation. Et à partir de là, c’est une antichambre concentrée et concentrique de tout ce qui peut se dire dans les médias avec plus de force et moins de nuances qui se dessine sur les réseaux sociaux."
Les moyens d’étudier la sociologie de ces attroupements virtuels sont limités. Sauf pour la plateforme elle-même. Dans ce genre de cas, seul Facebook peut connaître avec une précision et une transparence totale la constitution de ces groupes virtuels. Et après chaque crise, Facebook a deux possibilités. Soit elle affine son modèle économique ou soit de manière plus inquiétante, elle peut choisir de doper son modèle de données politiques et de s’en servir comme levier d’influence. Olivier Ertzscheid
Réseaux
Groupes de soutien au professeur Raoult, débats sur les mesures sanitaires, expressions de solidarité envers les soignants … en cette période de confinement et de distanciation sociale, les réseaux sociaux sont encore plus que d'habitude des lieux privilégiés d'expression de la colère des français.
Comment la défiance s'exprime-t-elle sur les réseaux sociaux en temps de pandémie ? Notre invité est Olivier Ertzscheid, enseignant-chercheur à l’Université de Nantes en sciences de l’information, auteur notamment de "L’appétit des géants. Pouvoir des algorithmes, ambitions des plateformes" (C&F éditions).
Didier Raoult, figure émergente des réseaux sociaux :
"On a vu sur les réseaux sociaux un phénomène d’unisson de la couverture médiatique en temps de crise qui s’est cristallisé sur une figure médiatique émergente en la personne de Didier Raoult et son traitement miracle. Et à partir de là, une logique virale s’est enclenchée qui se structure sur des sentiments de colère, d’injustice ou les deux cumulés car ce sont les sentiments qui se propagent le mieux sur les réseaux sociaux."
Le Professeur Raoult est devenu très rapidement le sujet d’une polémique puisque du jour au lendemain son traitement miracle a basculé dans le soupçon. A partir de là, les réseaux sociaux ont foncé de manière univoque vers la thèse du soutien à l’homme et au trraitment qui était injustement condamné par les médias. Et en ce sens, le Professeur Raoult a la figure de l'accrocheur de viralité car il s'éloigne de la vision classique du scientifique terne. Olivier Ertzscheid
Leviers d'influence des réseaux sociaux en temps de crise :
"On s'est d'abord focalisé sur le traitement ou l’individu. La en l’occurrence, la chloroquine et la figure de Didier Raoult ont été immédiatement associées l’une à l’autre. Et on a vraiment besoin de ce phénomène d’incarnation. Et à partir de là, c’est une antichambre concentrée et concentrique de tout ce qui peut se dire dans les médias avec plus de force et moins de nuances qui se dessine sur les réseaux sociaux."
Les moyens d’étudier la sociologie de ces attroupements virtuels sont limités. Sauf pour la plateforme elle-même. Dans ce genre de cas, seul Facebook peut connaître avec une précision et une transparence totale la constitution de ces groupes virtuels. Et après chaque crise, Facebook a deux possibilités. Soit elle affine son modèle économique ou soit de manière plus inquiétante, elle peut choisir de doper son modèle de données politiques et de s’en servir comme levier d’influence. Olivier Ertzscheid
[...]
Cette lettre ayant pour but de vous informer sur ce que nous avons fait entre janvier et avril 2020, nous découperons chaque partie pour distinguer les actions produites dans « le monde d’avant » (avant l’arrivée de cette pandémie dans nos vies et le confinement qui s’en suivit), des actions que nous avons réalisées parce que – et alors que – « le monde a changé© » (et nous avec, même si on ignore comment, pour l’un comme pour l’autre).
...
Cette lettre ayant pour but de vous informer sur ce que nous avons fait entre janvier et avril 2020, nous découperons chaque partie pour distinguer les actions produites dans « le monde d’avant » (avant l’arrivée de cette pandémie dans nos vies et le confinement qui s’en suivit), des actions que nous avons réalisées parce que – et alors que – « le monde a changé© » (et nous avec, même si on ignore comment, pour l’un comme pour l’autre).
...
Des caméras de Nice à la répression chinoise des Ouïghours, cette enquête dresse le panorama mondial de l'obsession sécuritaire, avec un constat glaçant : le totalitarisme numérique est pour demain.
Aujourd'hui, plus de 500 millions de caméras sur la planète offrent aux autorités la capacité de nous surveiller, à peu près partout et à chaque instant. Sous couvert de lutte contre le terrorisme ou la criminalité, les grandes puissances se sont lancées dans une dangereuse course aux technologies de surveillance. Dorénavant, l'incroyable perfectionnement de l'intelligence artificielle valide l'idée d'un regard total. Aux États-Unis, les forces de police utilisent la reconnaissance faciale pour identifier les suspects. En Chine, les caméras peuvent repérer les criminels de dos, à leur simple démarche. En France, la police utilise des caméras intelligentes qui analysent les émotions et les comportements des passants. Marquée par l'attentat au camion du 14 juillet 2016, qui a fait 86 morts, et s'est produit en dépit des 2 000 caméras scrutant la ville, Nice se situe désormais à l'avant-garde de l'expérimentation. Le centre de supervision et les zones dédiées à la reconnaissance faciale sont les chevaux de bataille du maire Christian Estrosi, qui veut faire de sa ville une safe city. Comme un virus, l'idéologie du tout sécuritaire se répand à la mesure d'une révolution numérique à la puissance exponentielle. Va-t-elle transformer notre monde en une planète habitée par 7 milliards de suspects ? Quel niveau de surveillance nos libertés individuelles peuvent-elles endurer ?
Dictature 3.0
On le surnomme le "marché de la peur", estimé à 40 milliards de dollars par an. Colossaux, les enjeux de la surveillance intelligente aiguisent les appétits de sociétés prêtes à promouvoir le "modèle Big Brother" pour engranger les plus grands bénéfices. L'enquête internationale de Sylvain Louvet démonte les rouages de cette machine aux innombrables facettes et dévoile la relation incestueuse qui se noue entre les industriels et les pouvoirs publics. En Israël, elle souligne les liens entre l'armée, le Mossad et les start-up technologiques, soupçonnées de tester la reconnaissance faciale aux checkpoints. En France, elle met en lumière l'influence du secteur privé, dans les orientations choisies par le maire de Nice, Christian Estrosi. Aux États-Unis, l'enquête donne la parole à ceux qui dénoncent la faillibilité du logiciel de reconnaissance faciale d'Amazon couplé à un fichage biométrique généralisé. Le documentariste a également réussi à enquêter en Chine, pays où l'obsession sécuritaire est en passe de donner naissance à une nouvelle forme de régime : la dictature 3.0. Arrestations "préventives" arbitraires, mise en place d'un système de notation des citoyens, fichage ADN et persécution systématisée (allant jusqu'à l'apposition d'un QR code sur la porte des appartements) de la minorité musulmane des Ouïghours… L'arsenal de la répression connaît un degré de raffinement inédit dans l'histoire de l'humanité. Un camp du Goulag numérique : telle est la vision du futur dessinée par ce documentaire aussi percutant que glaçant.
Aujourd'hui, plus de 500 millions de caméras sur la planète offrent aux autorités la capacité de nous surveiller, à peu près partout et à chaque instant. Sous couvert de lutte contre le terrorisme ou la criminalité, les grandes puissances se sont lancées dans une dangereuse course aux technologies de surveillance. Dorénavant, l'incroyable perfectionnement de l'intelligence artificielle valide l'idée d'un regard total. Aux États-Unis, les forces de police utilisent la reconnaissance faciale pour identifier les suspects. En Chine, les caméras peuvent repérer les criminels de dos, à leur simple démarche. En France, la police utilise des caméras intelligentes qui analysent les émotions et les comportements des passants. Marquée par l'attentat au camion du 14 juillet 2016, qui a fait 86 morts, et s'est produit en dépit des 2 000 caméras scrutant la ville, Nice se situe désormais à l'avant-garde de l'expérimentation. Le centre de supervision et les zones dédiées à la reconnaissance faciale sont les chevaux de bataille du maire Christian Estrosi, qui veut faire de sa ville une safe city. Comme un virus, l'idéologie du tout sécuritaire se répand à la mesure d'une révolution numérique à la puissance exponentielle. Va-t-elle transformer notre monde en une planète habitée par 7 milliards de suspects ? Quel niveau de surveillance nos libertés individuelles peuvent-elles endurer ?
Dictature 3.0
On le surnomme le "marché de la peur", estimé à 40 milliards de dollars par an. Colossaux, les enjeux de la surveillance intelligente aiguisent les appétits de sociétés prêtes à promouvoir le "modèle Big Brother" pour engranger les plus grands bénéfices. L'enquête internationale de Sylvain Louvet démonte les rouages de cette machine aux innombrables facettes et dévoile la relation incestueuse qui se noue entre les industriels et les pouvoirs publics. En Israël, elle souligne les liens entre l'armée, le Mossad et les start-up technologiques, soupçonnées de tester la reconnaissance faciale aux checkpoints. En France, elle met en lumière l'influence du secteur privé, dans les orientations choisies par le maire de Nice, Christian Estrosi. Aux États-Unis, l'enquête donne la parole à ceux qui dénoncent la faillibilité du logiciel de reconnaissance faciale d'Amazon couplé à un fichage biométrique généralisé. Le documentariste a également réussi à enquêter en Chine, pays où l'obsession sécuritaire est en passe de donner naissance à une nouvelle forme de régime : la dictature 3.0. Arrestations "préventives" arbitraires, mise en place d'un système de notation des citoyens, fichage ADN et persécution systématisée (allant jusqu'à l'apposition d'un QR code sur la porte des appartements) de la minorité musulmane des Ouïghours… L'arsenal de la répression connaît un degré de raffinement inédit dans l'histoire de l'humanité. Un camp du Goulag numérique : telle est la vision du futur dessinée par ce documentaire aussi percutant que glaçant.
La crise mondiale liée à la COVID-19 suscite la peur et l'incertitude, entraînant la baisse de la vigilance et la précipitation des personnes. Cette émotion est exploitée par les cybercriminels dans le but de voler des informations personnelles concernant leurs victimes en incitant leur cible à installer des malwares sur leur appareil ou en les redirigeant vers des sites malveillants. Pour ce faire, les malfaiteurs réalisent des campagnes de cyberattaque qui consiste à envoyer de faux messages d'information sur l'épidémie contenant un lien malveillant ou des virus informatiques.
...
...
Trois types de campagnes de spear phishing se serant du coronavirus comme prétexte ont été identifiées. Le scamming (escroquerie) arrive en tête des attaques les plus utilisées (54%), devant l'usurpation d'identité de marque (34%), sextortion ou blackmail (11%) et la compromission des e-mails professionnels (1%)...