Un nouveau règlement européen 2022/2065 du Parlement Européen et du Conseil concernant les services numériques appelés « Digital Service Act » ( ci – auprès DSA) est entré en vigueur le vendredi 25 août 2023.
Ce règlement peut être caractérisé comme révolutionnaire dans le monde des services numériques.
En espèce, le premier règlement DSA du 19 octobre 2022 avec le règlement sur les marchés numériques (DMA) sont tous les deux considérés comme de grands chantiers numériques de l’Union Européenne.
Les obligations prévues par ce texte doivent entrer en application le 17 février 2024.
Les très grandes plateformes en ligne et les très grands moteurs de recherche sont concernés plus tôt, dès le 25 août 2023.
L’objectif est de protéger les citoyens de l’Union Européenne contre la contrefaçon, la manipulation, la haine, le harcèlement, les arnaques et autres joyeusetés en ligne.
En outre, Thierry Breton, le Commissaire Européen chargé du Marché Intérieur, a commenté que :
“L’Europe est aujourd’hui la première juridiction au monde où les plateformes en ligne ne bénéficient plus d’un ‘passe-droit’ et ne fixent plus leurs propres règles”
Le « Digital Services Act » prévoit de nombreuses mesures, graduées selon les acteurs en ligne en fonction de la nature de leurs services et de leur taille.
Les très grandes plateformes et les très grands moteurs de recherche sont soumis à des exigences plus strictes.
Tous les acteurs en ligne vont devoir désigner un point de contact unique ou, s’ils sont établis hors UE, un représentant légal et coopérer avec les autorités nationales en cas d’injonction.
De la même façon, les plateformes en ligne doivent proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites.
Une fois le signalement effectué, elles doivent rapidement retirer ou bloquer l’accès au contenu illégal.
Ce statut est attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences.
Par ailleurs, les plateformes doivent rendre plus transparentes leurs décisions en matière de modération des contenus.
Elles doivent prévoir un système interne de traitement des réclamations permettant aux utilisateurs dont le compte a été suspendu ou résilié de contester cette décision.
Pour régler le litige, les utilisateurs peuvent également se tourner vers des organismes indépendants et certifiés dans les pays européens ou saisir leurs juges nationaux.
Les plateformes doivent par ailleurs expliquer le fonctionnement des algorithmes qu’elles utilisent pour recommander certains contenus publicitaires en fonction du profil des utilisateurs.
Les très grandes plateformes et les très grands moteurs de recherche doivent proposer un système de recommandation de contenus non-fondé sur le profilage et mettre à disposition du public un registre des publicités contenant diverses informations.
La publicité ciblée pour les mineurs devient interdite pour toutes les plateformes de même que la publicité basée sur des données sensibles comme les opinions politiques, la religion ou l’orientation sexuelle (sauf consentement explicite).
Les interfaces trompeuses connues sous le nom de « pièges à utilisateurs » et les pratiques visant à induire les utilisateurs en erreur sont prohibées.
Services concernés
Les services concernés sont les très grandes plateformes désignées par la Commission Européenne le 25 avril 2023, sur la base des données relatives aux utilisateurs qu’elles devaient publier.
Par ailleurs, sont notamment concernés les fournisseurs d’accès à internet, les services informatiques en nuage, les plateformes en ligne comme les places de marché, les boutiques d’applications, les réseaux sociaux, les plateformes de partage de contenus, les plateformes de voyage et d’hébergement et les très grandes plateformes en ligne et les très grands moteurs de recherche, utilisés par plus de 45 millions d’Européens par mois, désignés par la Commission Européenne.
Les dix-neuf plus grands réseaux sociaux, places de marché et autres moteurs de recherche Internet (AliExpress, Amazon Store, AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Search, Google Shopping, Instagram, LinkedIn, Microsoft Bing, Pinterest, Snapchat, TikTok, Wikipedia, X – anciennement Twitter –, YouTube, Zalando) doivent se conformer à cette législation européenne sur les services numériques les obligeant à mieux réguler leurs contenus.
Objectifs du DSA
L’intention générale du DSA est de responsabiliser les plateformes numériques et de lutter contre la diffusion de contenus illicites ou préjudiciables, mieux protéger les internautes Européens et leurs droits fondamentaux, aider les petites entreprises à se développer, renforcer le contrôle démocratique et la surveillance des très grandes plateformes et atténuer leurs risques systémiques.
La législation sur les services numériques veut mettre en pratique le principe selon lequel ce qui est illégal hors ligne est illégal en ligne.
Le règlement fixe un ensemble de règles pour responsabiliser les plateformes numériques et lutter contre la diffusion de contenus illicites ou préjudiciables ou de produits illégaux : attaques racistes, images pédopornographiques, désinformation, vente de drogues ou de contrefaçons.
Les mesures prévues par le DSA
Les plateformes en ligne doivent proposer aux internautes un outil offrant de signaler facilement les contenus illicites.
Les plateformes doivent prévoir un système interne de traitement des réclamations, expliquer le fonctionnement de leurs algorithmes et interdire la publicité ciblée pour les mineurs.
Elles doivent également analyser tous les ans les risques systémiques qu’elles génèrent (sur la haine et la violence en ligne, les droits fondamentaux, le discours civique, les processus électoraux, la santé publique, etc.) et prendre les mesures nécessaires pour les atténuer.
Ces plateformes devront aussi effectuer tous les ans des audits indépendants de réduction des risques, sous le contrôle de la Commission Européenne.
Les sanctions
Les 27 coordinateurs (des Etats Membres : Autriche, Belgique, Bulgarie, Croatie, République de Chypre, République tchèque, Danemark, Estonie, Finlande, France, Allemagne, Grèce, Hongrie, Irlande, Italie, Lettonie, Lituanie, Luxembourg, Malte, Pays-Bas, Pologne, Portugal, Roumanie, Slovaquie, Slovénie, Espagne et Suède) vont être chargés de contrôler le respect du règlement DSA dans leur pays et de recevoir les plaintes à l’encontre des intermédiaires en ligne.
Ils coopéreront au sein d’un « comité européen des services numériques » qui rendra des analyses, mènera des enquêtes conjointes dans plusieurs pays et émettra des recommandations sur l’application de la nouvelle réglementation.
Ce comité devra notamment alerter la Commission sur l’activation du mécanisme de réponse aux crises.
Les très grandes plateformes en ligne et les très grands moteurs de recherche vont être surveillés par la Commission Européenne.
Pour financer cette surveillance, des « frais de supervision » leur sont demandés, dans la limite de 0,05% de leur chiffre d’affaires annuel mondial.
En cas de non-respect du DSA, des astreintes et des sanctions pourront être prononcées.
Pour les très grandes plateformes et les très grands moteurs de recherche, la Commission pourra infliger des amendes pouvant aller jusqu’à 6% de leur chiffre d’affaires mondial.
En cas de violations graves et répétées à ce Règlement, les plateformes pourront se voir interdire leurs activités sur le marché Européen.