Chat Control en 2026 : toujours pas adopté, mais toujours pas enterré
Chat Control en 2026 : toujours pas adopté, mais toujours pas enterré
Mise à jour : avril 2026
Depuis la publication initiale de cet article, le dossier Chat Control a encore évolué, mais il n’est toujours pas adopté définitivement au niveau européen. La version “permanente” du texte, portée par la procédure législative en cours, continue d’être négociée entre le Parlement européen et le Conseil de l’UE. Un premier trilogue a eu lieu le 9 décembre 2025, un second le 26 février 2026, et la discussion se poursuit encore au printemps 2026.
En revanche, un point essentiel a changé : le régime transitoire qui permettait à certains services de détecter volontairement certains contenus sous dérogation au cadre ePrivacy n’a pas été prolongé. Le Parlement européen soutenait une extension plus courte et plus encadrée, mais les négociations avec le Conseil ont échoué. Résultat : ce dispositif a expiré après le 3 avril 2026.
Autrement dit, il faut éviter deux erreurs de lecture.
La première serait de croire que Chat Control est enterré : ce n’est pas le cas. Le projet de règlement permanent suit toujours son chemin. La seconde serait de croire qu’un filet temporaire continue de s’appliquer en attendant : ce n’est plus vrai non plus. Aujourd’hui, le texte avance encore politiquement, mais le provisoire, lui, a cessé de tenir.
Ce décalage est important, parce qu’il montre une chose : malgré des années de débats, de critiques sur la vie privée, le chiffrement et la proportionnalité des mesures, l’Union européenne n’a toujours pas trouvé d’équilibre stable entre protection de l’enfance, sécurité juridique et respect des communications privées. C’est précisément pour cela que ce dossier reste explosif.
Mise à jour : 28 novembre 2025
Le 6 novembre 2025, la présidence du Conseil de l’UE a publié une nouvelle version du projet de règlement CSAR (souvent désigné sous le nom de “Chat Control”).
Le 12 novembre, cette version a été examinée par le groupe LEWP (Law Enforcement Working Party), puis transmise aux représentants des États membres.
Le 26 novembre, le Conseil a annoncé avoir arrêté une position commune sur le texte. Cette version ne réintroduit pas la détection systématique et généralisée des communications privées. Les articles les plus controversés ont été retirés et remplacés par un ensemble d’obligations structurées :
- évaluation obligatoire des risques par les fournisseurs de services en ligne
- mesures de mitigation pour les services considérés “à haut risque”
- clause de révision permettant à la Commission européenne de réévaluer, à intervalles réguliers, la nécessité d’éventuelles mesures supplémentaires.
Le texte confirme que le chiffrement de bout en bout reste autorisé, tout en précisant que certaines technologies de détection, si elles devaient être implémentées, nécessiteraient le consentement explicite des utilisateurs.
Plusieurs éléments restent à clarifier, notamment la définition précise des services “à haut risque”, l’étendue des obligations associées, et les modalités d’application du “consentement explicite” dans les services chiffrés.
Il ne s’agit donc pas d’un retour au scan généralisé, mais d’un cadre évolutif, qui introduit un mécanisme permettant d’ajuster les obligations à l’avenir sans réécriture complète du règlement. Les prochaines étapes dépendront des négociations entre le Parlement européen, la Commission et le Conseil lors du trilogue.
Mise à jour : 14 Octobre 2025
Le projet Chat Control n’est pas mort, mais il est reporté / suspendu pour le moment, en attendant un texte amendé ou une nouvelle tentative.
Cette suspension fait suite à l’opposition ferme de l’Allemagne, qui a refusé de valider un texte autorisant le scan préventif généralisé des messageries privées.
Le Danemark, qui préside actuellement le Conseil de l’Union européenne, prévoit de revenir avec un compromis révisé et de remettre le sujet à l’ordre du jour lors d’une prochaine réunion probablement en décembre 2025.
Mise à jour d’octobre 2025 : l’Allemagne annonce qu’elle refusera le projet Chat Control
Ces derniers jours, la presse allemande a largement relayé la position du gouvernement fédéral : l’Allemagne ne soutiendra pas le règlement européen Chat Control, dans sa forme actuelle.
La ministre fédérale de la Justice, Stefanie Hubig (SPD), a déclaré que “le contrôle sans motif des conversations privées doit rester tabou dans un État de droit”, précisant que son pays ne donnerait pas son assentiment à un texte autorisant le scan préventif des messages privés avant envoi.
Le Bundestag a tenu le 9 octobre une séance spéciale intitulée « Non allemand au Chat Control européen », au cours de laquelle plusieurs députés ont confirmé que l’Allemagne refuserait tout mécanisme de surveillance généralisée des messageries, jugé contraire au respect du chiffrement et à la vie privée.
⚠️ Cependant, la situation reste floue : selon plusieurs médias européens, le texte définitif du règlement n’aurait pas encore été transmis dans sa version finale aux États membres, et certains, dont l’Allemagne, attendraient de le lire avant le vote prévu le 14 octobre. Des sources proches du dossier évoquent même un possible report du vote, faute de consensus au Conseil de l’UE.
👉 Si cette position allemande se confirme, elle pourrait suffire à bloquer la majorité qualifiée requise pour faire adopter le texte au niveau européen.
Mise à jour du 13 septembre 2025 : Beaucoup de bruit dans la presse… mais toujours aucun texte officiel disponible.
Nous avons dépassé la date du 12 septembre 2025 annoncée dans la presse comme une échéance clé, et aucun texte définitif n’a encore été publié par le Conseil de l’UE. Tant que le document officiel n’est pas disponible sur EUR-Lex ou le site du Conseil, il est prudent de rester méfiant face aux rumeurs ou aux interprétations médiatiques : sans accès au texte finalisé, rien n’est confirmé.
👉 Le seul document officiel disponible à ce jour est le compromis danois (hérité de la présidence lettone), qui distingue deux cas
- Détection volontaire : les plateformes (WhatsApp, Signal, Gmail, etc.) peuvent décider de scanner certains contenus. Cela ne concerne que les images, vidéos et liens. Les messages texte et audio en sont exclus. Les outils utilisés doivent être certifiés et les fournisseurs doivent publier des rapports de transparence.
- Détection obligatoire : si une autorité estime que la détection volontaire ne suffit pas, elle peut imposer un ordre de détection. Mais là encore, seules les images, vidéos et URLs peuvent être concernées. Les messages texte et audio sont expressément exclus.
👉 En clair : ce compromis limite le champ de la détection au visuel (photos, vidéos, liens). Les conversations écrites ou audio ne peuvent pas être scannées de manière obligatoire.
⚠️ Il faut rappeler que ce compromis (ST-8621-2025-INIT) n’est qu’un brouillon de travail, pas un texte définitif. Et si la version finale tarde autant à être publiée, c’est peut-être justement parce que son champ d’action, limité aux contenus visuels, est jugé insuffisant par certains États membres.
📅 Une fois finalisé, le texte devra être examiné lors du Conseil Justice et affaires intérieures (JAI) du 14 octobre 2025.
Contexte
La proposition européenne souvent surnommée Chat Control ne date pas d’hier. Présentée par la Commission européenne en 2022, elle vise à renforcer la prévention, la détection, le signalement et le retrait des contenus pédocriminels en ligne, ainsi que certaines formes de sollicitation sexuelle de mineurs. Sur le papier, l’objectif affiché est clair. Mais dès le départ, le texte a déclenché une opposition massive chez de nombreux défenseurs des libertés numériques, juristes, chercheurs et acteurs techniques, en raison de son impact potentiel sur la confidentialité des communications et sur le chiffrement de bout en bout.
Le Parlement européen a adopté sa position en novembre 2023, avec une ligne plus protectrice pour la vie privée que les premières ambitions de la Commission. Le dossier a ensuite été bloqué au Conseil pendant de longs mois, avant qu’un compromis politique n’émerge finalement en novembre 2025, ouvrant la voie aux négociations interinstitutionnelles. Celles-ci ont débuté le 9 décembre 2025, avec un second trilogue le 26 février 2026. Autrement dit, le projet n’a ni disparu ni abouti : il est toujours en construction, dans un équilibre instable entre protection de l’enfance, faisabilité technique et respect des droits fondamentaux.
Dans ce contexte, il est plus juste de parler d’un dossier en mutation permanente que d’un texte figé. Les versions les plus agressives ont rencontré une forte résistance politique, mais les institutions européennes continuent de chercher un cadre durable qui impose davantage d’obligations aux services numériques, avec en toile de fond la question explosive de la détection dans les espaces privés.
Quelles technologies sont concernées ?
Les services potentiellement concernés ne se limitent pas à une seule catégorie d’outils. Le débat touche à la fois les messageries sécurisées privées, les services de communication chiffrés, certaines boîtes mail sécurisées, ainsi que d’autres plateformes susceptibles d’héberger, transmettre ou signaler des contenus illicites. Dans les premières versions du dossier, l’inquiétude s’est concentrée surtout sur les services protégeant fortement la confidentialité des échanges, car toute obligation de détection appliquée à des communications privées soulève immédiatement la question du chiffrement de bout en bout.
C’est précisément ce point qui a rendu le projet si explosif : dans un service réellement chiffré de bout en bout, le fournisseur n’est pas censé pouvoir lire le contenu des messages. Introduire des mécanismes de détection en amont, en aval ou côté client revient donc à déplacer la frontière technique de la confidentialité. Même lorsque les institutions affirment vouloir préserver le chiffrement, la tension reste entière dès lors qu’un texte crée une pression réglementaire sur les services privés pour analyser, signaler ou empêcher certains contenus.
©Signal
Réactions internationales
Le projet européen n’est pas isolé. Dans plusieurs démocraties, la protection des mineurs en ligne sert aussi de point d’entrée à des débats beaucoup plus larges sur le chiffrement, la traçabilité et l’accès des autorités aux communications privées. Mais les modèles retenus diffèrent, et aucun n’a vraiment réglé la tension de fond entre sécurité publique et confidentialité numérique.
Au Royaume-Uni, l’Online Safety Act a ouvert la voie à des pouvoirs très contestés autour de la détection de contenus pédocriminels, y compris sur des services utilisant le chiffrement de bout en bout. La position officielle du gouvernement britannique a insisté sur la faisabilité technique de solutions conciliant sécurité des enfants et respect de la vie privée, et le cadre permet à Ofcom, dans certaines conditions, d’exiger l’usage d’une technologie accréditée ou le développement de solutions adaptées. Ce n’est donc pas un modèle rassurant pour les défenseurs du chiffrement, même si son application concrète reste politiquement et techniquement sensible.
En Australie, le TOLA Act de 2018 a déjà inscrit dans le droit des mécanismes permettant aux autorités de demander une assistance technique aux entreprises, dans un cadre qui a souvent été critiqué pour ses effets potentiels sur la sécurité et le chiffrement. Le pays montre qu’une démocratie libérale peut aller assez loin dans l’arsenal légal, même lorsque l’équilibre avec la cybersécurité reste contesté.
En Inde, les IT Rules imposent aux grandes plateformes de messagerie de pouvoir identifier le premier expéditeur d’un message dans certaines hypothèses prévues par la loi. Même si le texte précise qu’il ne s’agit pas, en théorie, d’exiger la divulgation du contenu du message, cette logique entre directement en tension avec l’architecture et la promesse du chiffrement de bout en bout.
Ces exemples montrent surtout une chose : la pression contre les espaces de communication privés ne disparaît pas. Elle change de forme selon les pays, mais la tentation reste la même : obtenir davantage de visibilité sur des échanges que les technologies modernes rendent, par conception, plus difficiles à inspecter.
Réactions en France
La position française sur Chat Control a été moins visible publiquement que celle de certains États membres comme l’Allemagne, qui a fini par afficher un refus clair de certaines formes de surveillance préventive des messageries privées. En l’absence de ligne politique française aussi nettement exposée dans les sources officielles, il est plus prudent de dire que la France s’inscrit surtout, à ce stade, dans une logique plus large de régulation des contenus et des usages numériques sensibles, plutôt que dans une contestation frontale du projet européen.
Cette logique apparaît notamment dans le durcissement du cadre français sur la vérification de l’âge pour l’accès aux sites pornographiques. En juillet 2025 (le rapport en français est téléchargeable directement sur la page), le Conseil d’État a refusé de suspendre l’obligation de vérification d’âge imposée à certains services établis dans d’autres États membres de l’Union. Quelques semaines plus tard, Arcom a indiqué que plusieurs nouveaux sites avaient mis en place de tels dispositifs.
Autrement dit, même sans équivalent exact au projet Chat Control, la France participe elle aussi à un mouvement européen plus large : celui d’un encadrement plus serré des plateformes numériques au nom de la protection des mineurs. La différence, pour l’instant, est surtout une différence d’outil et d’échelle, pas une absence de tension entre protection, vie privée et libertés numériques.
Pour en savoir plus : Pic d’utilisation des VPN en France suite au retrait des géants du contenu pour adultes
Réflexions finales
Le dossier Chat Control n’a toujours pas trouvé son point d’équilibre. Le projet de règlement permanent avance encore dans les négociations européennes, mais il n’est pas adopté. Et dans le même temps, le régime transitoire qui permettait certaines détections volontaires sous dérogation ePrivacy a expiré après le 3 avril 2026, faute d’accord politique pour le prolonger.
Ce double constat dit beaucoup de l’impasse actuelle. D’un côté, les institutions européennes veulent montrer qu’elles agissent contre les abus sur mineurs en ligne. De l’autre, elles se heurtent toujours aux mêmes limites : faisabilité technique, sécurité juridique, protection du chiffrement et risque de banalisation d’outils intrusifs dans les communications privées.
Le vrai enjeu n’est donc pas de savoir s’il faut protéger les mineurs, là-dessus, le consensus existe. Le vrai enjeu est de savoir jusqu’où une démocratie peut aller dans l’inspection, la prévention et la traçabilité des échanges privés sans abîmer durablement les libertés qu’elle prétend défendre. C’est précisément pour cela que ce dossier continue de dépasser largement le seul cadre de la lutte contre les contenus pédocriminels.

A propos de l'auteur : Lisa
Fondatrice de VPN Mon Ami
Experte en cybersécurité avec plus de 12 ans d'expérience dans le domaine des VPN, j'écris de nombreux articles pour sensibiliser les internautes à la confidentialité en ligne.


















Interface de Mailfence













