Connue sous le nom de « Chat control », la proposition de règlement visant à lutter contre la diffusion de contenus pédopornographiques sur Internet (Child Sexual Abuse Material – CSAM) verra sa nouvelle version présentée aux chefs d’État et de gouvernement de l’Union européenne le mois prochain. Ce projet de loi européen dont la première mouture a été présentée par la Commission européenne en mai 2022 ne plaît pas à tout le monde.
Ecorama Luxembourg a interrogé le député du Parti Pirate Sven Clement, farouche adversaire du texte pour qui il faut combattre l’origine des contenus.
Ecorama Luxembourg : Selon vous, mettre les citoyens européens sous surveillance pour traquer des criminels sexuels n’est-il pas disproportionné et inquiétant ?
Sven Clément : C’est absolument disproportionné. Malheureusement, ce n’est pas la première fois que l’Union européenne ou certains pays de doctrine un peu plus autocrate ou de droite essaient de nous convaincre que pour lutter contre la criminalité, les droits fondamentaux peuvent être nuancés, discutés. C’est une situation qui devient de plus en plus préoccupante, car tout cela nous montre que les droits fondamentaux sont toujours négociables. Pour moi, ils ne le sont pas.
E.L : En ouvrant des brèches dans les procédés de cryptage, est-ce qu’on donne le feu vert aux hackers et aux services étrangers pour exploiter ces données ?
S.C : En fait, je vais commencer par le début pour mieux expliquer peut-être les différences entre les deux options. Il y a vraiment la brèche dans le cryptage qui serait préoccupante, et qu’actuellement, on a l’impression que c’est ce qu’ils sont en train de vouloir faire.
Je pense qu’essentiellement, ils veulent, si on comprend bien, ouvrir ou pouvoir décrypter toutes sortes de contenus. Ce qui pourrait inclure par exemple aussi des contenus protégés, comme par exemple le web banking. Donc, cela met en péril la sécurité d’Internet, de l’Internet commercial, comme par exemple pour l’e-commerce, pour le web banking. Je pense que pour tout le monde, il est clair que même si on n’est pas un criminel, on veut que ces données web banking soient sécurisées.
Et si jamais on permet d’ouvrir cette brèche, toute tentative de connexion à une banque pourrait être mise en péril. Maintenant, ceux qui créent, qui parlent de « Chat control », disent que non, on ne va pas faire ça. On ne va pas casser toute la cryptographie, on va faire du « on-device », c’est ce qu’ils appellent du « client-side scanning ».
E.L : De quoi s’agit-il ?
S.C : On va dire que chaque contenu qui sera envoyé sera analysé sur votre téléphone ou sur votre iPad, sur votre ordinateur, avant qu’il ne soit envoyé en ligne, pour détecter s’il y a du CSAM, du « Child Sexual Abuse Material ». Maintenant, pour moi, la question qui se pose alors, c’est comment faire ça ? À première vue, on ne pourrait pas s’opposer, cela protège les données personnelles, cela protège la sphère privée des utilisateurs.
Mais malheureusement, ce n’est pas le cas. La réalité, c’est que ces systèmes vont générer beaucoup de faux positifs et surtout ne peuvent pas détecter des contenus que la police ne connaît pas encore.
E.L : Qu’est-ce que c’est, un « faux positif » ?
S.C : Cela veut dire que le système pense que c’est de la pédocriminalité ou du contenu pédocriminel. Par exemple, si je partage avec mon épouse une photo de mon enfant dans la baignoire, pour lui dire « tu vois, tout va bien ». Jusqu’à quel moment est-ce qu’un algorithme peut faire la distinction entre une pose suggestive sexualisée et une pose tout à fait normale ? Donc, si ce contenu est signalé automatiquement auprès des autorités, moi, je serais mis sous examen pour pédocriminalité, ce qui est quand même un crime grave, sans pourtant avoir fait quelque chose dans cette direction. Juste en partageant avec mon épouse ou avec les grands-parents de mon enfant une photo d’elle à la salle de bain.
Donc, même si on le fait « on device », pour autant qu’on ne puisse pas garantir qu’il n’y a pas de faux positifs, on met en péril la vie privée aussi. Si on produit par exemple des contenus sexualisés, je ne veux même pas dire pornographiques, mais tout simplement sexualisés, la question devient aussi : l’algorithme peut-il vraiment détecter l’âge des personnes impliquées ? Et là, à nouveau, on aura une infraction sur les droits fondamentaux que sont la liberté d’expression et la liberté de penser.
Aux États-Unis, on parle du « First Amendment ». Et même les contenus pornographiques sont couverts par la liberté d’expression, pour autant qu’il s’agit de personnes consentantes, d’un âge consentant. Donc, en disant dans le texte qui est soumis actuellement au Conseil de l’Union Européenne, où on demande aux plateformes de pouvoir détecter sur les clients, sur votre smartphone, sur votre tablette, sur votre ordinateur, de détecter des contenus inconnus à la police, on ouvre la porte à des « faux positifs » pour tout le monde qui a une vie un peu plus libertine, qui a une vie où il partage peut-être des photos insolites, ou il partage tout simplement des photos de ses enfants. Et donc, cette infraction à la vie privée, pour moi, c’est là.
On peut très longtemps parler des aspects techniques, de l’insécurité, de casser l’encryption qui est nécessaire pour protéger les journalistes, les dissidents, les whistleblowers. C’est tout un autre aspect qu’il essaie de contourner en disant que c’est du « client-side scanning ». Mais ces « faux positifs », pour moi, c’est vraiment là où on criminalisera des gens pour leur liberté d’expression, au sein de leur vie privée, dans la sphère très intime.
E.L : Mais encore ?
S.C : Et le problème, qu’est-ce qui va se passer avec ces contenus qui sont flagués, qui sont potentiellement illégaux ? Imaginons que je partage avec mon épouse l’image de ma petite dans la baignoire. La plateforme a peut-être un doute. Comment le lever? C’est qu’il y a une personne qui doit regarder alors le contenu pour décider si c’est pédopornographique ou pas. Et donc là, on va se retrouver avec la situation qu’une photo nue de ma petite sera partagée avec une personne dans un call center indien. Sans mon consentement. Pour combattre la pédocriminalité. C’est grave.
Imaginons qu’on va envoyer dans le futur, même si c’est seulement 1% de toutes les photos, des clichés d’enfants nus, on va parler de milliers et de milliers de photos de nos enfants qui vont être envoyées à des call centers, probablement dans le sud global, avec des mœurs complètement différentes, avec une sexualité complètement différente, pour décider si c’est de la pédopornographie ou pas. Je n’ai pas donné mon consentement pour qu’une photo de ma petite fille nue soit envoyée à une tierce personne.
E.L : Pour vous, où se situe la limite entre la lutte contre la pédocriminalité et la vie privée ?
S.C : Si on a des soupçons de la pédocriminalité, on a tous les outils, sous surveillance d’un juge d’instruction à disponibilité, pour mettre des personnes sous écoute, pour perquisitionner, dans beaucoup de pays, la police a même le droit d’enquêter sous couvert.
Nous avons beaucoup d’outils pour combattre la pédocriminalité à l’origine. C’est-à-dire la production de contenus, et ça, c’est l’abus des enfants. Et puis la diffusion de contenus, ça, c’est une conséquence, si on ne lutte pas efficacement contre les deux premières.
Malheureusement ici, à nouveau, on combat d’abord les symptômes, voire la diffusion des contenus, sans pourtant combattre l’origine des contenus. Et je pense que c’est une déclaration de faillite de notre justice. Si on n’arrive pas à combattre l’origine de ces photos, de ces vidéos, on a échoué en tant que justice.
E.L : Allez, on fait un peu de fiction. Si « Chat control » était adopté le 14 octobre prochain, puis mis en application, quels types de dérives pourrions-nous voir apparaître ?
S.C : Cela dépend, et là je nuance juste pour dire, de la version qui sera mise en avant. Si on parle vraiment de casser l’encryption, on se retrouvera avec beaucoup plus de fraude sur Internet, car dès qu’on crée une backdoor1, on va insécuriser Internet tout court. Par exemple sur les transactions bancaires, on ne pourra plus croire qu’une transaction a été signée par la personne qui a prétendument signé. Les transactions e-commerce, transactions Luxtrust, tout cela sera mis en péril. Donc espérons qu’au moins ça, certainement ils ne vont pas passer, si jamais il y a au moins un expert qui est autour de la table. Oui, version « client-side scanning », on va dire meilleure, non, il n’y a pas de meilleure, c’est entre peste et choléra.
Deuxième version « client-side scanning », on va se retrouver dans un monde où des milliers, voire des millions de faux positifs vont être créés par les plateformes et qui vont devoir être traités. Donc il y a deux options, soit les plateformes bloquent leurs utilisateurs. Donc on va se retrouver avec une situation avec beaucoup de parents qui ne seront plus à même d’utiliser Facebook, Twitter, Instagram, etc.
Donc, on va tout simplement les bloquer pour éviter des sanctions. Probablement, on va bloquer un tiers de la population. Je ne pense pas que ça soit une position fiable pour les plateformes. Ils ne vont pas seulement faire de la détection, mais aussi une analyse humaine des contenus « flaggés » avant de les transmettre à la police. Et ces contenus-là, comme je l’ai dit, ce seront les photos des enfants à moitié nus qui vont être envoyées dans des call centers.
Suite de l’entretien demain jeudi 18 septembre 2025
1 https://tinyurl.com/48b589jw
En savoir plus sur Ecorama Luxembourg
Abonnez-vous pour recevoir les derniers articles par e-mail.
