La Commission européenne a proposé mercredi une nouvelle réglementation qui obligerait les entreprises technologiques à rechercher le matériel d’abus sexuel d’enfants (CSAM) et le comportement de toilettage, ce qui fait craindre que cela ne sape le cryptage de bout en bout (E2EE). À cette fin, les fournisseurs de services en ligne, y compris les services d’hébergement et les applications de communication, sont censés analyser de manière proactive leurs plates-formes à la recherche de CSAM, ainsi que signaler, supprimer et désactiver l’accès à ces contenus illicites. Alors que les services de messagerie instantanée comme WhatsApp s’appuient déjà sur des versions hachées de CSAM connus pour bloquer automatiquement les nouveaux téléchargements d’images ou de vidéos qui leur correspondent, le nouveau plan exige que ces plates-formes identifient et signalent les nouvelles instances de CSAM. « Les technologies de détection ne doivent être utilisées que dans le but de détecter les abus sexuels sur les enfants », a déclaré le régulateur. « Les fournisseurs devront déployer les technologies les moins intrusives pour la vie privée conformément à l’état de l’art de l’industrie, et qui limitent au maximum le taux d’erreur de faux positifs. » Un nouveau centre de l’UE sur les abus sexuels sur enfants, qui sera créé de manière indépendante pour faire appliquer les mesures, a été chargé de maintenir une base de données d' »indicateurs » numériques d’abus sexuels sur enfants, en plus de traiter et de transmettre les signalements légitimes aux forces de l’ordre. De plus, les règles exigent que les magasins d’applications veillent à ce que les enfants ne téléchargent pas d’applications qui « peuvent les exposer à un risque élevé de sollicitation d’enfants ». La proposition controversée de réprimer le matériel d’abus sexuel intervient quelques jours après la fuite d’une version préliminaire du règlement plus tôt cette semaine, incitant le chercheur en sécurité de l’Université Johns Hopkins, Matthew Green, à déclarer que « C’est Apple encore une fois ». Le géant de la technologie, qui a annoncé l’année dernière son intention d’analyser et de détecter les CSAM connus sur ses appareils, a depuis retardé le déploiement pour « prendre plus de temps au cours des prochains mois pour collecter les informations et apporter des améliorations ». Meta, de même, a reporté ses plans de prise en charge d’E2EE sur tous ses services de messagerie, WhatsApp, Messenger et Instagram, jusqu’en 2023, déclarant qu’il faut du temps pour « bien faire les choses ». L’une des principales préoccupations en matière de confidentialité et de sécurité découlant des dispositifs de numérisation d’images illégales d’abus sexuels est que la technologie pourrait affaiblir la vie privée en créant des portes dérobées pour vaincre les protections E2EE et faciliter la surveillance à grande échelle. Cela nécessiterait également un accès persistant en texte clair aux messages privés des utilisateurs, rendant effectivement E2EE incompatible et érodant la sécurité et la confidentialité des communications. « L’idée que toutes les centaines de millions de personnes dans l’UE auraient leurs communications privées intimes, où elles s’attendent raisonnablement à ce qu’elles soient privées, soient à la place scannées aveuglément et généralement 24h/24 et 7j/7 est sans précédent », a déclaré Ella Jakubowska. , conseiller politique chez European Digital Rights (EDRi), a déclaré à Politico. Mais la confidentialité offerte par le cryptage s’avère également être une épée à double tranchant, les gouvernements ripostant de plus en plus aux craintes que les plateformes cryptées soient utilisées à mauvais escient par des acteurs malveillants pour le terrorisme, la cybercriminalité et la maltraitance des enfants. « Le cryptage est un outil important pour la protection de la cybersécurité et la confidentialité des communications », a déclaré la commission. « Dans le même temps, son utilisation en tant que canal sécurisé pourrait être exploitée par des criminels pour cacher leurs actions, entravant ainsi les efforts visant à traduire en justice les auteurs d’abus sexuels sur des enfants. » Le développement souligne les luttes continues de Big Tech pour équilibrer la confidentialité et la sécurité tout en répondant simultanément à la nécessité d’aider les forces de l’ordre dans leur quête d’accès aux données criminelles. « La nouvelle proposition est trop large, non proportionnée et porte atteinte à la vie privée et à la sécurité de chacun », a déclaré l’Electronic Frontier Foundation (EFF). « Les exigences d’analyse sont soumises à des garanties, mais elles ne sont pas assez solides pour empêcher les actions intrusives pour la vie privée que les plates-formes seront tenues d’entreprendre. »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *