La fin justifie-t-elle les moyens ? Après avoir été épinglée par une enquête de plusieurs médias pour des liens supposés avec des lobbys industriels de la surveillance, YIva Johansson, la commissaire européenne en charge des Affaires intérieures, est à nouveau sous le feu des critiques. Cette fois, c’est un recours à de la publicité microciblée sur X (anciennement Twitter), en faveur de son règlement controversé sur la protection des mineurs, le CSAR, qui est dans le collimateur de la société civile, de certains Eurodéputés et depuis peu, du contrôleur de la protection des données européen.
Ce texte, qui vise à mieux protéger les enfants des pédocriminels en ligne, est actuellement en discussion au sein de l’Union européenne (UE). Il pourrait obliger les plateformes et les messageries chiffrées à scanner toutes nos conversations privées, y compris sur les messageries chiffrées comme Signal ou Telegram. L’objectif serait pour les plateformes de détecter et de signaler tout contenu pédopornographique aux forces de l’ordre, qui n’ont jusqu’ici aucun accès aux contenus des échanges chiffrés. Mais beaucoup craignent que la mesure puisse être ensuite utilisée à d’autres fins, si elle est mise en œuvre. Scientifiques et associations de défense des droits numériques se sont mobilisés, ces derniers mois, pour expliquer que mettre en place une exception au chiffrement signifiait ni plus ni moins la fin de la correspondance privée. La mesure serait tout aussi inefficace que dangereuse.
À l’origine : un clip de 47 secondes pro-CSAR, diffusé dans 7 pays
Cette fois, tout serait parti de la diffusion sur X, dans sept pays de l’Union européenne – la France n’en fait pas partie – d’un clip publicitaire, payé par la direction générale en charge des affaires intérieures de la Commission européenne. Dans la vidéo de 47 secondes, on peut lire le message suivant, pour la Belgique par exemple : « Le saviez-vous ? 95 % des Belges déclarent que la détection des abus sexuels sur les enfants est plus ou aussi importante que le droit à la vie privée en ligne. 86% des Belges se déclarent favorables à ce que les Sociétés Internet détectent automatiquement les images et vidéos d’abus sexuels commis sur les enfants », même sur les messageries chiffrées. En arrière-plan alternent des enfants face à des écrans et des hommes écrivant sur leur smartphone, sur fonds de musique angoissante.
⚠️Les prédateurs se cachent derrière les écrans et les enfants souffrent en silence
⏳Il est temps de mettre fin aux abus sexuels sur les enfants
🇧🇪 La majorité des citoyens est favorable à ce que propose l’UE #EUvsChildSexualAbuse
Et vous? Pour en savoir plus, cliquez ici↓
— EU Home Affairs (@EUHomeAffairs) September 15, 2023
Si la diffusion entre le 15 et le 25 septembre est passée relativement inaperçue dans l’Hexagone – et pour cause, le pays n’était pas visé par cette campagne publicitaire – elle n’a pas échappé à Danny Mekić. Le juriste et entrepreneur néerlandais serait tombé dessus en épluchant le rapport de transparence de Twitter. Danny Mekić, dans le journal néerlandais de Volkskrant, explique que cette publicité pro-CSAR, visionnée plus de quatre millions de fois, était destinée à des utilisateurs de Twitter ciblés en fonction de leurs profils politiques et religieux. Ce dernier a ensuite été censuré sur son compte X sans explication, explique-t-il sur son blog.
Concrètement, la campagne publicitaire devait atteindre des utilisateurs de Twitter dans sept pays, à savoir les Pays-Bas, la Suède, la Belgique, la Finlande, la Slovénie, le Portugal et la République tchèque. Tous ces pays auraient voté contre le texte, le 14 septembre dernier, lors de la dernière réunion du Conseil, note Danny Mekić.
Le microciblage est-il licite ?
Cette campagne pose question, d’abord parce qu’il s’agit d’un microciblage. La publicité n’était visible que chez certains utilisateurs de X, en fonction de leur religion et de leur opinion. Le message ne devait, par exemple, pas être diffusé sur certains profils, comme ceux intéressés par Julian Assange – donc a priori, exit les internautes sensibles à la protection de la vie privée. Exit aussi les responsables politiques européens d’extrême-droite et les eurosceptiques, de même que – et c’est un curieux mélange – les pro-Poutine, pro-Sinn Fein (le parti nationaliste irlandais favorable à la réunification de l’Irlande), les chrétiens, les christianophobes, et ceux intéressés par le terme « nazi ».
Un tel ciblage n’est-il pas interdit par le règlement européen sur les données personnelles, et par le Digital Services Act ? C’est la question posée par la députée européenne néerlandaise Sophia in ‘t Veld (Renew), à la Commission européenne. Même son de cloche chez l’eurodéputée allemande Alexandra Geese (Les Verts), qui écrit : l’exécutif européen « est-il au courant de l’interdiction d’utiliser des données sensibles dans le cadre du DSA ? ». L’article 26 alinéa 3 du Digital Services Act – ou règlement sur les services numériques – interdit en effet aux plateformes d’utiliser des données comme « l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques… » pour leurs publicités ciblées.
Plus généralement, la Parlementaire européenne questionne le fait que la Commission européenne ait recours à de la publicité, alors qu’elle est en pleine négociation avec les deux autres colégislateurs de l’UE. Le fait de lancer ce type de campagne pour « influencer les décisions du Parlement ou du Conseil » est-il réellement « compatible avec le principe de coopération loyale du Traité de l’UE », demande-t-elle. Tout ceci est-il « compatible avec son rôle d’intermédiaire honnête dans les trilogues en général, et concernant les négociations du trilogue sur la publicité politique en particulier », poursuit l’eurodéputée.
Une enquête préliminaire lancée
L’affaire a fini par arriver aux oreilles du contrôleur de la protection des données, le CEPD : cet organisme, chargé de contrôler le bon respect de la protection des données à caractère personnel et de la vie privée par les institutions de l’UE, vient de lancer une enquête préliminaire à ce sujet. Il a demandé à la Commission européenne des informations en rapport avec l’utilisation décrite de la publicité microciblée, qui doivent être fournies d’ici le 20 octobre, relève le média allemand netzpolitik.org.
La Commissaire se défend et avance des publicités 100 % légales
La Commissaire, de son côté, se défend d’avoir eu recours à tout instrument illégal. Sur son compte X, elle écrit que ses services « ont suivi les lignes directrices et la loi à 100 % », qu’il s’agit d’« une pratique normale standard » visant avant tout « à protéger les enfants contre les abus sexuels », sans donner plus d’explications.
As my services have been directly accused of illegal acts👇 I think it is import I step in:
1. @EUHomeAffairs have followed the guidelines & the law 100%
2. The promotion of our proposal is standard normal practice
3. This proposal is about protecting children from sexual abuse https://t.co/zSSAu3684P— Ylva Johansson (@YlvaJohansson) October 13, 2023
Dans un article de blog, la commissaire européenne déplore avoir « été victime d’insultes, de menaces et d’intimidations » de la part des opposants à sa proposition de règlement. Ces derniers se seraient « concentrés sur son sexe ou sur son apparence », en écrivant « des tweets racistes, misogynes et sexistes, car lorsque vous êtes une femme en politique, vous devez être traitée de “sorcière” et de “garce”, et pire encore », regrette-t-elle.
L’étude sur laquelle se base la Commission serait biaisée
Mais la publicité en elle-même n’est pas le seul problème que la Commissaire doit affronter. Cette dernière s’appuie, dans son message de blog, sur une nouvelle étude – publiée le 13 octobre – selon laquelle « 95 % des Européens estiment qu’il est important que des lois réglementent les fournisseurs de services en ligne afin de lutter contre les abus sexuels commis sur les enfants. (…) 81 % sont favorables à l’obligation de détecter, de signaler et de supprimer les abus sexuels commis sur des enfants ».
Problème : ce sondage d’opinion mené sur près de 25 000 personnes par ECPAT International – un réseau qui lutte contre l’exploitation sexuelle des enfants – et la NSPCC – la Société nationale pour la prévention de la cruauté envers les enfants – en partenariat avec Savanta, serait, lui aussi, controversé. Cette fois, c’est une chercheuse en méthodologie de la recherche, Vera Wilde, qui s’est penchée sur la question. Celle qui se présente aussi comme « une activiste de la transparence » a publié sa longue analyse sur son blog, lundi 16 octobre.
Selon ce sondage, explique-t-elle, une majorité d’Européens semble soutenir le fait d’imposer le scan des messageries privées (chiffrées). Mais c’est la formulation même du questionnaire qui poserait problème. Les personnes interrogées auraient lu que le chiffrage de bout en bout interfère avec la vie privée et la sécurité de tous les utilisateurs, en particulier les enfants. « Si vous dites aux gens que le chiffrage de bout en bout nuit aux enfants, […] alors bien sûr, beaucoup de gens diront ‘à bas le chiffrage de bout en bout” », déplore la chercheuse.
Le sondage ne mettrait également en évidence que les avantages, et non les inconvénients du futur règlement. Les conséquences et les risques d’un tel système de détection automatique – qui pourrait conduire à une surveillance généralisée du Web et des messageries privées – ne sont pas expliquées. Conséquence, selon la chercheuse, ce sondage ne serait pas « valable parce que l’instrument est biaisé ». « Les chercheurs responsables ont violé les normes professionnelles et éthiques largement acceptées pour la conduite d’enquêtes (…). Et les promoteurs du sondage ont également déformé les résultats de l’enquête », le tout étant décrit comme « une campagne de désinformation. L’enquête a désinformé les participants, et la présentation erronée de ses résultats désinforme encore plus les lecteurs », estime-t-elle.
Contactés par nos confrères d’Euractiv, les organisateurs du sondage se défendent de tout biais, expliquant avoir utilisé des « méthodologies conformes aux normes de l’industrie et des procédures transparentes dans le cadre de cette étude ». La commission des libertés civiles du Parlement européen devrait se prononcer sur le texte le 25 octobre prochain.