Lors de la session plénière de septembre, un premier bilan de ce texte emblématique sur la régulation des plateformes numériques a été dressé, tout en envisageant ses évolutions possibles. Les discussions autour de ces plateformes sont particulièrement vives, car le texte doit assurer à la fois la sécurité des internautes tout en respectant les libertés fondamentales. Les opposants craignent que les objectifs de régulation portent atteinte à la liberté d’expression, tandis que la commissaire à la concurrence, Margrethe Vestager, rejette toute accusation de censure et prône une responsabilisation accrue des plateformes. En parallèle, les dirigeants des grandes entreprises numériques expriment leur frustration face aux nombreuses régulations européennes, qu’ils considèrent comme un frein à leur développement en Europe. C’est au cœur de ces tensions que se joue l’avenir du DSA.
Organiser la lutte contre la désinformation et les contenus illicites
Le Digital Service Act est entré en vigueur le 25 août 2023 et s’applique à l’ensemble des plateformes depuis le 17 février 2024. Dès lors, son rôle est de responsabiliser les plateformes du numérique face à la profusion des partages de contenus haineux ou de désinformation. En ce sens, il faut retenir trois objectifs essentiels avancés par le texte : la lutte contre les contenus illicites, la transparence des plateformes numériques et la modération des propos pouvant conduire à des risques liés aux crises (élection, vague de désinformation sur un conflit, …).
Le premier objectif de lutte s’illustre par le signalement facilité pour les internautes des contenus jugés illicites. Ainsi, de tels contenus doivent immédiatement être bloqués ou retirés. La plateforme du numérique doit assurer un traitement rapide et efficace afin d’éviter une propagation incontrôlable du contenu litigieux. Afin d’assurer avec efficacité cet objectif, les réseaux du numérique doivent faciliter la collaboration entre les internautes et les plateformes de sorte à repérer plus rapidement les contenus illicites. Ces mesures se cumulent avec la présence de « fact-checkers » veillant à la fiabilité du contenu des réseaux.
En matière de transparence, les plateformes doivent informer les internautes sur leurs méthodes de modération des contenus. Elles sont dans l’obligation de mettre à disposition un espace de réclamation pour les utilisateurs, qui se sont vus supprimer leurs publications ou suspendre leur compte. Outre ces réclamations, les plateformes doivent aussi informer les utilisateurs quant au fonctionnement de leur algorithme. En outre, pour les fournisseurs de plateforme en ligne, le DSA pose un principe d’interdiction stricte de traitement de données à caractère personnel à des fins de publicité. En particulier, les publicités ciblant les mineurs ou fondées sur des données sensibles telles que la religion, l’opinion politique ou l’orientation sexuelle sont désormais interdites sur toutes les plateformes. Enfin, les autorités nationales et la Commission européennes ont accès aux données récoltées et à l’algorithme utilisé par les réseaux.
Les plateformes numériques peuvent être utilisées à mauvais escient, alimentant les risques causés par des crises sociétales. Pour lutter contre ce phénomène, la Commission européenne est activement sollicitée. Par exemple, les élections européennes ont été l’occasion de tester le texte face à la vague de désinformation frappant les démocraties occidentales. En se basant sur les analyses de risques des plateformes numériques, la Commission a pu transmettre des lignes directrices en mars 2024 aux différentes entreprises du numérique pour lutter contre la désinformation et la propagation des « deepfake », utilisant l’intelligence artificielle. Ce système de lutte s’illustre par une collaboration plus forte entre les géants du numériques et les autorités nationales et européennes. De manière générale, les plateformes doivent réaliser des analyses régulières quant aux risques systémiques que génèrent leurs algorithmes en matière de désinformation et prendre les mesures nécessaires pour remédier à ces difficultés.
Cependant, depuis son entrée en vigueur, le texte a continué à cristalliser des oppositions. Les grandes plateformes ont été les premières à réagir mais également des députés accusent le texte d’être trop attentatoire à la liberté d’expression.
Le DSA, entre protection et censure des internautes
Durant sa prise de parole devant le Parlement européen, la commissaire européenne Margrethe Vestager s’est voulu très claire : « La loi sur les services numériques ne réglemente pas le contenu en ligne. Ce qu’elle réglemente, c’est la responsabilité des plateformes en ce qui concerne les systèmes qu’elles doivent mettre en place pour atténuer tout impact négatif de leurs activités ».n’est pas la première à défendre le DSA face aux allégations liberticides réalisées à l’encontre de ce règlement ; l’eurodéputé Geoffroy Didier défendait déjà sur une tribune du journal Le Monde que « le Digital Services Act ne menacera pas la liberté d’expression, il la protégera ».
Pourtant, cet avis est loin de faire l’unanimité auprès des autres élus qui craignent que la Commission européenne ne se transforme en ministère de la vérité. Selon l’opposition, ce texte est trop attentatoire à la liberté d’expression en appliquant une réglementation de censure. La député d’extrême droite, Laurence Trochu (ECR) dénonce un texte qui « favorise la censure politique », la députée souverainiste Virginie Joron (PfE) appelle ironiquement le texte le « Digital Surveillance Act » ou encore la représentante Sarah Knafo (ESN) qui s’insurge à l’encontre de la Commission : « Vous pouvez nous censurer, mais vous ne pouvez pas censurer le réel ».
Au-delà des débats politiques, ce texte trouve également des opposants parmi les géants du numérique. En août dernier, le dirigeant Elon Musk et l’ex-commissaire européen, Thierry Breton, ont eu un échange houleux concernant la réglementation européenne, jugée trop contraignante par ce premier. Parallèlement, l’arrestation du patron de Telegramme Pavel Durov, fait également grand bruit, alimentant davantage les suspicions d’obtenir une complète main mise sur le contenu des plateformes numériques. Hormis le DSA, d’autres réglementations font l’objet d’abondantes critiques et en particulier l’IA act. Le 19 septembre 2024, une lettre ouverte est publiée au nom d’une trentaine d’entreprises du numérique comprenant l’entreprise Meta ou encore Spotify critiquant les dispositions contraignantes de ce texte. Le bras de fer entre les plateformes numériques et les institutions européennes se perpétue mais peut avoir pour conséquence un ralentissement de l’innovation et du développement de l’économie numérique sur le sol européen. Ces critiques interviennent au moment où le texte est en cours d’application et ce dernier a déjà fait certaines preuves. En effet, son application a entraîné de nombreux changements concernant le comportement des plateformes numériques.
Le DSA : un outil citoyen de la protection des données
Le DSA a produit pleinement ses effets depuis le 17 février 2024 pour les plateformes numériques. Le texte contient de nombreux garde-fous préservant la liberté d’expression, comme l’explique la commissaire européenne, Margrethe Vestager : « aucune obligation générale de surveillance ne sera imposée par les États membres et les plateformes resteront exemptées de toute responsabilité directe. » Le retrait des contenus publiés doit être prévu au moment des conditions générales posées par les plateformes prévenant de tout caractère arbitraire de la suppression d’un post. D’autant que des voies de recours sont également imposées aux fournisseurs de plateforme pour contester un retrait abusif. Par exemple, concernant la désinformation, il s’agit d’un projet de lutte pour lequel la Commission est particulièrement active. Cependant, un contenu peut être faux sans être illicite, ce qui signifie qu’il n’a pas à être supprimé par les plateformes. Néanmoins, il est demandé aux plateformes de mettre en place un algorithme qui ne laisse pas propager ces contenus et de s’appuyer sur les signalements des internautes pour lutter contre la désinformation. En somme, l’argument avancé par la Commission est d’accorder davantage de pouvoir aux citoyens dans la régulation des plateformes numériques.
Ces régulations influencent l’évolution des plateformes et cherchent à prévenir, entre autres, les risques d’addiction liés aux réseaux sociaux. Dans ce cadre, certaines initiatives de plateformes ont été abandonnées pour protéger les jeunes utilisateurs. Par exemple, le projet “TikTok lite” de TikTok, qui visait à récompenser les utilisateurs avec des pièces virtuelles, a été jugé par la Commission comme présentant des risques sérieux d’addiction et a été définitivement retiré du marché européen. De son côté, Meta prévoit de faire évoluer Instagram en introduisant des « comptes adolescents » pour mieux protéger les jeunes utilisateurs âgés de 13 à 15 ans. Dès leur inscription, les comptes sont automatiquement définis comme privés, les contenus violents et haineux sont masqués, les notifications sont désactivées entre 22h et 7h, les interactions entre adultes et adolescents sont restreintes, et les parents disposent d’une plus grande supervision sur l’activité de leurs enfants sur le réseau.
L’équilibre visé par les textes européens concernant les plateformes numériques est complexe, d’autant plus que le numérique occupe une place croissante dans la vie des citoyens. Ces régulations révèlent les nombreux dangers que ces plateformes présentent, tant en termes de contenu que d’utilisation. Néanmoins, il faut reconnaître que l’établissement d’un cadre sain où les internautes peuvent s’exprimer est tout aussi essentiel pour leur protection que pour la préservation de leur liberté d’expression.
Suivre les commentaires : |