Les députés ont voté le projet de loi qui désigne l’Autorité de la concurrence comme coordinateur pour faire respecter le règlement du Digital Services Act (DSA).
La rumeur a eu au moins l’avantage de sensibiliser le public sur le Digital Services Act (DSA). Quand le New York Times a annoncé la semaine dernière que la Commission européenne était en train de préparer une amende record d’un milliard de dollars contre le réseau X appartenant à Elon Musk, chacun a cru que l’enquête ouverte depuis 2023 par Bruxelles était arrivée à son terme.
La Commission européenne assure pourtant qu’aucune sanction contre le réseau social n’est décidée. L’enquête se poursuit dans le cadre du DSA, le règlement européen dont l’objectif est d’adapter le cadre législatif aux avancées technologiques et à l’évolution des services, contenus et modèles économiques. Il s’agit de créer un environnement en ligne plus sûr afin de protéger les consommateurs et les PME sur internet.
Le règlement établit un cadre de règles visant à renforcer la responsabilité des plateformes numériques et à lutter contre la propagation de contenus illicites ou nuisibles en ligne. La Chambre des députés a voté mercredi dernier en faveur du projet de loi qui assure la mise en œuvre du DSA. Il prévoit que l’Autorité de la concurrence puisse collaborer avec les autorités nationales sectorielles déjà compétentes dans la lutte contre la diffusion de contenus illégaux sur internet. Un groupe de coordination national a été mis en place pour harmoniser l’application du DSA et garantir une cohérence avec les autres législations européennes en matière de services numériques.
Les États membres doivent établir des procédures spécifiques pour l’exercice des pouvoirs du coordinateur DSA, d’où la nécessité d’instituer des mécanismes d’enquête et d’exécution, inspirés du droit de la concurrence et des pratiques de la Commission européenne.
La mise en œuvre du DSA sera assurée conjointement par les États membres et la Commission européenne. Comment cela va-t-il fonctionner au Luxembourg, concrètement?
Évaluation des risques
«Le DSA, c’est en fait un ensemble de règles assez subtiles», explique un spécialiste du dossier au ministère de l’Économie et des PME. Il n’y aura pas une unité qui va traquer en permanence les contenus, mais le règlement impose aux plateformes de mettre en place toutes les mesures qui permettent, in fine, de les identifier et de les supprimer au plus vite. «Il y a par exemple l’obligation dans le DSA pour les plateformes de type Facebook, Instagram ou TikTok, de mettre en place des mécanismes de signalement pour que les utilisateurs qui tombent sur un contenu illicite, par exemple pédopornographique, puissent le signaler à la plateforme pour qu’elle puisse le retirer, sinon elle s’expose à des sanctions.»
Si un internaute constate que la plateforme ne réagit pas, à ce moment-là, il pourra contacter l’Autorité de la concurrence, désignée comme coordinateur pour les services numériques, et elle pourra mener une enquête. C’est le coordinateur pour les services numériques du pays dans lequel est établie la plateforme qui est compétent. Dans le cas du réseau X, l’autorité de la concurrence luxembourgeoise devra donc contacter l’autorité irlandaise où est établi le siège social européen de X, qui pourra prendre des mesures contre la plateforme d’Elon Musk.
Si un résident luxembourgeois constate un contenu illégal, il pourra trouver un module sur guichet.lu qui le redirigera vers l’autorité compétente. «Si on reste sur l’exemple de la pédopornographie, l’Autorité de la concurrence va seulement voir s’il a les moyens de signaler ce contenu. Et ensuite, sur la qualification même de pédopornographie, pour déterminer si ce contenu est illégal, ce sera l’autorité habituelle, donc la police ou le parquet, qui va s’en occuper. C’est pour ça que l’Autorité de la concurrence a un rôle de coordinateur», poursuit l’expert du ministère.
L’autorité va s’occuper vraiment de voir si les mesures qui ont été mises en place par la plateforme ont atténué les risques de diffusion. Et si elle constate que ce n’est pas le cas, elle pourra agir. Est-ce que cet outil permet quand même de lutter de façon assez conséquente contre les contenus qui influent sur les élections, souvent à l’aide de fake news ?
«En Allemagne, il a été question, lors des dernières élections, de voir dans quelles mesures le DSA pouvait aider. Donc les différentes autorités compétentes se sont réunies et avaient fait une évaluation au préalable. Et s’étaient rendu compte que finalement, ce n’était pas nécessaire. Mais si cette intrusion impliquait des contenus illégaux, par exemple des discours haineux, du contenu terroriste, là, effectivement, il y a un mécanisme d’évaluation des risques qui se mettrait en marche», explique encore le spécialiste du ministère.
Et si ces risques existent, les plateformes sont tenues d’adopter des mesures pour les atténuer. Cela peut se traduire par une adaptation de leurs algorithmes ou encore de leur modération des contenus.