« Big Brother is watching you. »
Dans 1984, George Orwell décrit un monde où la surveillance est totale, où la vie privée n’existe plus, et où l’identité humaine se dissout dans la peur et le contrôle permanent.
Cette dystopie a longtemps semblé éloignée, presque caricaturale. Pourtant, sans fracas, sans coups de force, nous en approchons les contours. Non pas à travers la brutalité d’un régime autoritaire, mais par l’usage insidieux de technologies puissantes, déployées au nom de l’efficacité et du bien commun.
Le projet porté aujourd’hui par le Ministre de Finances poussé dans le dos par Vooruit illustre parfaitement ce glissement. Il prévoit l’usage d’un algorithme de datamining, appliqué sans distinction à l’ensemble des comptes bancaires des citoyens, pour détecter de possibles fraudes fiscales.
La lutte contre la fraude est évidemment nécessaire. Mais l’approche choisie est profondément disproportionnée. Elle ne cible plus les fraudeurs, elle place chaque citoyen sous surveillance, par défaut, sans motif particulier, sans soupçon préalable.
Autrement dit, chacun devient suspect simplement parce qu’il existe.
Et cela pose une question fondamentale :
Ce n’est pas parce qu’une chose est technologiquement possible qu’elle est démocratiquement acceptable.
À trop croire que les données peuvent tout révéler, on en oublie les fondements de l’État de droit : la présomption d’innocence, la vie privée, la proportionnalité dans les moyens d’enquête.
Un algorithme, aussi puissant soit-il, ne justifie pas qu’on balaie ces principes d’un revers de code.
Ce que l’on normalise aujourd’hui dans l’indifférence, c’est une nouvelle forme de surveillance — froide, silencieuse, automatisée — qui ne dit pas son nom, mais qui étend son emprise, champ après champ, fichier après fichier, base de données après base de données.
Et à force de céder, mesure après mesure, à la tentation du contrôle généralisé, nous perdons bien plus que notre vie privée :
Nous abandonnons peu à peu ce qui fait de nous des êtres humains.
Car une société sans vie privée est une société sans intériorité,
une société où l’humain se réduit à une donnée, un score, un signal faible parmi d’autres.
Une société qui surveille tout, et donc qui ne comprend plus rien.
Ce n’est pas le futur.
C’est maintenant.
Et c’est ce que nous acceptons, à petits pas, souvent sans en mesurer la portée.
Voilà comment, lentement, sans même nous en rendre compte, nous glissons vers le pire des cauchemars : celui où la liberté ne meurt pas d’un coup, mais se dissout dans le confort de la surveillance, et où l’identité se dissipe dans le bruit froid des machines.
Retrouvez ci-après le texte de mon intervention en commission finance du 23 septembre 2025:
Monsieur le Ministre,
Je vous l’ai déjà dit et je le répète… vous êtes un de mes Ministres préférés… et je sais à quel point trouver des équilibre dans un gouvernement est complexe… et certains partis ne partagent pas votre amour de la liberté…
Je tiens à souligner que je comprends pleinement l’objectif poursuivi : renforcer l’efficacité de l’action fiscale grâce aux outils technologiques. Cet objectif est légitime, et il est de notre responsabilité collective de lutter contre la fraude.
Cela étant dit, la méthode choisie ici – l’intégration des données du PCC dans un système de datamining à grande échelle – suscite de sérieuses interrogations dans son caractère disproportionné.
En effet, ce dispositif touche à des données bancaires sensibles, et permet leur traitement automatisé, sans qu’une base légale suffisamment précise, ni un encadrement normatif strict, ne soient garantis.
Le Conseil d’État lui-même rappelle que les éléments essentiels d’un tel traitement doivent être fixés dans la loi. L’Autorité de protection des données évoque une ingérence grave dans la vie privée.
Ce que nous devons préserver ici, c’est l’équilibre fondamental entre la performance administrative et la protection des libertés individuelles.
Car au-delà de l’intention, ce type de traitement peut produire des effets très concrets : profilage, ciblage automatisé, absence de transparence, difficulté de recours pour les citoyens.
Dans une société démocratique, la confiance du citoyen dans les institutions repose sur deux piliers : l’efficacité, certes, mais aussi la loyauté du traitement de l’information qui le concerne.
Je plaide donc pour que ce dispositif soit soit réencadré, soit reporté, tant qu’il ne respecte pas pleinement les principes de légalité, de finalité, de proportionnalité, et de contrôle indépendant. Il me semble très utile de réinterroger ou affiner cette partie du texte… ma loyauté au gouvernement vacille sur cette question (avis personnel non validé par mon chef de groupe)
Car défendre les libertés fondamentales, ce n’est pas s’opposer à la technologie ; c’est veiller à ce qu’elle soit au service de la liberté, pas de sa mise sous surveillance.
Questions parlementaires
Sur la base légale et les finalités
Monsieur le Ministre, pouvez-vous préciser où, dans le texte législatif, sont définies de manière claire et accessible les finalités précises, les catégories de données concernées, ainsi que les critères de sélection utilisés pour le datamining du PCC ? Ne pensez-vous pas que l’absence de telles précisions affaiblit la sécurité juridique de ce dispositif ?
Sur l’équilibre entre efficacité fiscale et droits fondamentaux
Comment le Gouvernement entend-il concilier l’objectif légitime de lutte contre la fraude avec les exigences de proportionnalité et de finalité limitée, telles que rappelées à la fois par le RGPD, la jurisprudence européenne et notre propre Constitution ?
Sur les garanties procédurales
Quelles sont les garanties concrètes mises en place pour encadrer l’usage d’algorithmes dans l’analyse des données du PCC ? Existe-t-il un mécanisme d’audit indépendant des outils de datamining utilisés ? Si oui, quel en est le cadre ? Si non, envisagez-vous d’en instaurer un ?
Sur le droit à l’information et au recours
Le citoyen ciblé par un signalement algorithmique aura-t-il le droit d’en être informé ? Pourra-t-il contester ce traitement ou en demander la justification, conformément à l’article 22 du RGPD et à la jurisprudence de la CJUE ?
Sur l’avis du Conseil d’État et de l’APD
Comment le Gouvernement a-t-il intégré les remarques du Conseil d’État (avis 77.807) et de l’APD (avis AD36/2025), qui soulignent tous deux un manque de fondement normatif clair et un encadrement insuffisant du traitement ?