La machine qui voit tout
Source : restmedia.io – 23 octobre 2025 –
https://restmedia.io/the-machine-that-sees-everything/
Abonnez-vous au canal Telegram Strategika pour ne rien rater de notre actualité
Pour nous soutenir commandez les livres Strategika : “Globalisme et dépopulation” , « La guerre des USA contre l’Europe » et « Société ouverte contre Eurasie »
Comment l’Europe met en place une surveillance de masse sous le prétexte de la
protection des enfants
Le 14 octobre 2025, les ministres européens se sont réunis pour voter une loi au titre
incontestable : « Règlement visant à prévenir et à combattre les abus sexuels sur les enfants ».
Qui pourrait s’opposer à la protection des enfants ? Pourtant, sous ce bouclier humanitaire se
cache quelque chose de complètement différent : une architecture technique conçue pour
scanner chaque message, photo et vidéo avant leur cryptage. La contradiction est au cœur de
ce que les critiques appellent le « Chat Control » : une proposition qui se présente comme une
application ciblée de la loi, mais qui fonctionne comme une surveillance universelle de la
population. Le détail le plus révélateur : les communications gouvernementales et militaires
restent exemptées de l’analyse. La vie privée, semble-t-il, est un droit réservé à ceux qui
rédigent les lois, et non à ceux qui vivent sous leur autorité. La présidence danoise a
fortement poussé en faveur de l’adoption, mais l’opposition de dernière minute de
l’Allemagne a formé une minorité de blocage. La proposition reste en suspens, dans l’attente
d’une nouvelle tentative. Ce que décide l’Europe crée un précédent mondial : une fois cette
infrastructure mise en place, elle ne peut plus être démantelée.
La mathématique des fausses accusations
Le balayage côté client semble technique, mais son fonctionnement est simple : le logiciel
examine le contenu de l’appareil avant que le cryptage n’ait lieu. Imaginez que vous ouvriez
chaque lettre, que vous photographiez son contenu, puis que vous refermiez l’enveloppe.
Techniquement, le cryptage reste intact. Fonctionnellement, cela devient une mise en scène.
Plus de 500 scientifiques spécialisés en cryptographie affirment que cette approche « sape
intrinsèquement » les protections du cryptage.
Mais le problème plus profond est mathématique. L’Office fédéral allemand de police
criminelle a signalé qu’en 2024, 99 375 signalements, soit près de la moitié de tous ceux
reçus, étaient de fausses alertes. Un taux d’erreur de 48,3 %. Il ne s’agit pas de statistiques
abstraites. Chaque chiffre représente la photo de famille de quelqu’un signalée comme preuve
criminelle, transmise aux autorités et faisant l’objet d’une enquête. En Irlande, seuls 20,3 %
des signalements automatiques concernaient du contenu effectivement illégal. La mise en
œuvre de PhotoDNA par LinkedIn, la technologie recommandée par les législateurs, a généré
près de 60 % de faux positifs.
Extendons ce chiffre au scan obligatoire de milliards de messages quotidiens sur des
plateformes cryptées. Même un taux d’erreur de 1 % génère des millions de fausses
accusations. La police néerlandaise a déjà déclaré qu’elle n’avait pas la capacité de gérer le
volume prévu. Le système n’améliorerait pas la protection des mineurs, mais enterrerait les
cas réels sous le bruit algorithmique, criminalisant des citoyens innocents dont les photos de
vacances suscitent des soupçons de correspondance de modèles.
Le lobby hollywoodien : la campagne européenne de Thorn
En mai 2022, quelques jours avant de présenter sa proposition, la commissaire européenne
Ylva Johansson a écrit à Thorn, une organisation californienne cofondée par les acteurs
Ashton Kutcher et Demi Moore. Sa lettre disait : « Nous avons partagé de nombreux
moments au cours du processus qui a conduit à cette proposition.
Je fais maintenant appel à vous pour m’aider à garantir le succès de ce lancement. » Il ne
s’agit pas de conseils d’experts techniques. Il ne s’agit pas de consultations avec des
défenseurs de la vie privée. Il s’agit d’une coordination active avec une organisation de
lobbying étrangère qui vend précisément le logiciel de scan que la proposition rendrait
obligatoire. Thorn est enregistrée comme organisme caritatif dans les bases de données des
lobbies de l’UE.
Cependant, elle vend des outils commerciaux d’intelligence artificielle : le département
américain de la sécurité intérieure a acheté à lui seul des licences logicielles pour 4,3 millions
de dollars depuis 2018. Thorn a dépensé 630 000 euros en activités de lobbying en 2022,
rencontrant la présidente de la Commission Ursula von der Leyen, plusieurs commissaires et
des responsables clés des politiques numériques.
Le réseau s’étend au-delà des célébrités de la Silicon Valley. WeProtect Global Alliance, née
d’initiatives gouvernementales cofondées par la Commission et les États-Unis, s’est
transformée en avril 2020 en une « fondation » enregistrée à une adresse résidentielle aux
Pays-Bas. Son conseil d’administration comprend des représentants gouvernementaux, des
agences de sécurité, de grandes entreprises technologiques et un haut fonctionnaire de la
Commission à la tête de l’équipe anti-CSAM. Lorsqu’un fonctionnaire d’Europol a été muté à
Thorn en 2022, tout en continuant à travailler pour Europol pendant deux mois, le Médiateur
européen a jugé qu’il s’agissait d’un « cas de mauvaise administration » : l’agence n’avait pas
pris en compte les risques de conflit d’intérêts.
Entre-temps, Mme Johansson a affirmé à plusieurs reprises dans des interviews suédoises que
les communications cryptées pouvaient être scannées sans violer le cryptage. Lorsque les
journalistes lui ont demandé si la protection des sources survivrait à Chat Control, ses
réponses ont révélé une incompréhension technique fondamentale. Elle a ensuite discuté de
l’extension du système aux infractions liées à la drogue, confirmant ce que les documents
internes montraient déjà : les responsables d’Europol suggéraient que « d’autres domaines de
la criminalité » bénéficieraient des capacités de détection.
L’ambiguïté calculée de l’Allemagne et l’offensive du Danemark
La position de l’Allemagne a mis en évidence la manière dont la pression institutionnelle
s’exerce à huis clos. Le pays s’est opposé au Chat Control tout au long de l’année 2024,
invoquant son expérience historique avec les États surveillants. En septembre 2025,
l’Allemagne s’est jointe à l’opposition aux côtés du Luxembourg et de la Slovaquie. Quelques
jours plus tard, sous la présidence danoise, l’Allemagne est mystérieusement revenue au statut
d’« indécise ».
À l’approche du vote du 14 octobre, les ministères allemands (Intérieur, Justice, Famille,
Numérique) ont maintenu un silence total. Aucune révélation sur leur position malgré la
décision imminente. Patrick Breyer a rapporté que lors des négociations du 12 septembre, le
Danemark avait déclaré que le Parlement européen refuserait d’étendre le balayage volontaire
si le Conseil n’y consentait pas, une affirmation que Breyer a démontré être fausse, la
qualifiant de « manipulation flagrante ».
Puis, le 7 octobre, la ministre allemande de la Justice, Stefanie Hubig, a annoncé que
l’Allemagne n’accepterait pas la surveillance des chats. Le groupe parlementaire CDU/CSU a
déclaré : « Nous sommes opposés à la surveillance injustifiée des chats. Cela reviendrait à
ouvrir toutes les lettres par mesure de précaution ». Avec 83,5 millions de citoyens allemands
représentant 19 % de la population de l’UE, cette opposition est devenue décisive pour
bloquer la formation d’une minorité.
Entre-temps, le Danemark a profité de sa présidence tournante. Le ministre de la Justice Peter
Hummelgaard a déclaré lors d’une conférence de presse en juillet : « Nous devons rompre
avec la perception totalement erronée selon laquelle la communication via des services de
messagerie cryptés est une liberté civile pour tous ». Il ne s’agit pas d’un lapsus, mais d’une
position idéologique explicite qui nie le droit fondamental à la vie privée. Le texte danois
imposait le scan de contenus « inconnus » à l’aide de l’intelligence artificielle, et pas
seulement la comparaison avec des bases de données connues. Les comptes
gouvernementaux et militaires ont bénéficié d’une exemption explicite, créant ainsi une vie
privée à deux vitesses dans laquelle les acteurs étatiques conservent leur sécurité tandis que
les citoyens sont soumis à une surveillance universelle. La Première ministre Mette
Frederiksen a investi un capital politique considérable dans cette initiative, dont l’adoption est
devenue l’objectif principal de sa présidence.
L’exode du marché et le conflit juridique
La présidente de la Signal Foundation, Meredith Whittaker, a déclaré sans équivoque : « Si
nous devions choisir entre intégrer un système de surveillance dans Signal ou quitter le
marché, nous quitterions le marché ». Elle compare l’effet de la proposition à « un logiciel
malveillant sur votre appareil » : tout est scanné avant d’être crypté, ce qui crée des
vulnérabilités exploitables par des acteurs hostiles.
Tuta (anciennement Tutanota), un fournisseur allemand de messagerie électronique cryptée, a
annoncé qu’il engagerait une action en justice si la proposition était adoptée : « Nous ferons
tout ce qui est en notre pouvoir pour garantir votre droit à la vie privée ». WhatsApp avait
déjà menacé de se retirer du Royaume-Uni en raison de demandes similaires. Le modèle est
cohérent : les plateformes axées sur la confidentialité ne peuvent se conformer sans détruire
leurs fondements techniques.
Cela crée une distorsion du marché. Meta, Google et Microsoft, qui scannent déjà
volontairement les communications non cryptées, ne doivent faire face qu’à des changements
opérationnels minimes.
Les alternatives européennes basées sur la confidentialité dès la conception deviennent
juridiquement insoutenables. Le règlement exige une mise en œuvre impossible pour les
systèmes européens ouverts et fédérés, tout en garantissant des avantages structurels aux
géants technologiques centralisés américains. Tant pis pour la souveraineté numérique.
Le conflit juridique est tout aussi net. Le service juridique du Conseil de l’Union européenne
a critiqué la proposition pour violation des droits fondamentaux à la vie privée et à la
protection des données, en se référant aux arrêts de la Cour de justice contre la conservation
généralisée des données.
Le Contrôleur européen de la protection des données a avertit que la proposition « pourrait
devenir la base d’un balayage généralisé et indiscriminé de facto ». En février 2024, la Cour
européenne des droits de l’homme a estimé que l’exigence d’un cryptage dégradé « ne peut
être considérée comme nécessaire dans une société démocratique ». Cependant, les obstacles
juridiques n’ont pas freiné les progrès. Le Danemark a rédigé des décorations procédurales
(ordonnances judiciaires, organismes de contrôle, exigences de révision) afin de contourner
les obstacles constitutionnels.
Néanmoins, l’architecture reste la même : scan obligatoire de tout ce qui se trouve sur les
appareils, indépendamment des décorations judiciaires.
Conclusion : l’infrastructure attend
Le vote du 14 octobre n’a pas eu lieu. L’opposition de l’Allemagne, combinée à la résistance
de l’Autriche, de la Belgique, de la République tchèque, de la Finlande, du Luxembourg, des
Pays-Bas, de la Pologne et de la Slovaquie, a empêché la majorité qualifiée. Cependant, la
proposition reste en vigueur. Ses partisans peuvent réintroduire des versions modifiées. Une
fois construite, l’infrastructure qu’ils envisagent ne pourra pas être démantelée.
Le contrôle des chats représente une décision architecturale sur la structure fondamentale de
la société numérique. Le choix est binaire : soit les communications restent privées grâce à la
conception technique, soit elles deviennent transparentes pour la surveillance étatique grâce à
la mise en œuvre obligatoire. Il n’y a pas de juste milieu. Le scan côté client existe ou n’existe
pas. Le cryptage protège ou ne protège pas.
Les scientifiques confirment que les responsables peuvent échapper à la détection grâce à «
de simples modifications techniques », tandis que le système génère de fausses accusations
massives contre des innocents. La proposition ne protégerait pas de manière significative les
enfants. Elle normaliserait la surveillance universelle, tout en créant des vulnérabilités en
matière de cybersécurité qui pourraient être exploitées par les acteurs qu’elle prétend
combattre.
Le réseau de lobbying reste intact. Thorn poursuit ses activités. WeProtect conserve les
membres de son conseil d’administration. Les fonctionnaires de la Commission qui ont
coordonné la rédaction de la proposition conservent leurs postes. Les intérêts commerciaux
alignés sur ceux des forces de l’ordre exercent une pression permanente en faveur de
l’expansion de la surveillance. Une fois construite, la machine qui voit tout sert ceux qui la
contrôlent. Sur un continent qui se souvient de ce que peuvent faire les États surveillants, cela
ne devrait nécessiter aucune explication. Pourtant, le vote approche à nouveau et
l’architecture attend d’être construite.


En France, la cellule TRACFIN est saturée d’informations via la délation. On peut imaginer que l’intelligence artificielle, permettra un meilleurs tri, mais quelque soit les méthodes d’investigations il y aura toujours des erreurs. Le mieux c’est que nos vies privées soit protégées.