Digital Services Act / Législation sur les services numériques

Appel de plusieurs associations européennes, dont la LDH, à l’attention des parlementaires européens et des représentants des Etats membres de l’Union européenne

Mesdames et messieurs les députés,

Mesdames et messieurs les représentants des Etats membres,

La Commission européenne a rendu public le 15 décembre 2020 son projet de “Digital Services Act” (DSA), ou “Législation sur les services numériques”. Ce texte, qui fait l’objet d’un examen par le Parlement européen et par le Conseil, revêt une importance accrue dans un contexte marqué par la prolifération des discours de haine en ligne liés notamment aux théories complotistes et aux manipulations de l’information.

Ce phénomène de haine en ligne était déjà présent auparavant, mais avec la pandémie de Covid, l’audience des complotistes et des extrémistes a explosé sur les réseaux sociaux. Cette diffusion toujours plus étendue des discours porteurs d’exclusion, de haine et de violence a un impact négatif durable sur le fonctionnement démocratique de nos sociétés, notamment sur le respect de droits fondamentaux tels que la liberté d’expression et d’information. Il est apparu clairement que les réseaux sociaux avaient une responsabilité considérable dans la lutte contre ces phénomènes, notamment en raison de leur capacité à retirer rapidement ou non ces contenus et à s’assurer de leur fiabilité.

L’essence même de l’Union européenne est de garantir et de faire respecter ces droits et libertés, tels qu’ils sont définis dans la Charte européenne des droits fondamentaux ainsi que dans la Convention européenne des droits de l’Homme et des libertés fondamentales (CEDH).

Les ONGs soussignées souhaitent que la Commission européenne, le Parlement européen et les représentants des États membres, en adoptant le DSA, s’engagent fermement dans la lutte contre les discours de haine en ligne et mettent en place les garanties démocratiques indispensables pour les usagers des réseaux sociaux.

  1. Le DSA doit clairement protéger les usagers des réseaux sociaux : ce qui nest pas autorisé hors-ligne ne lest pas, non plus, en ligne

La nouvelle législation numérique doit mettre à disposition des usagers des instruments juridiques efficaces pour lutter contre les discours de haine et leurs auteurs. Les droits des victimes, des témoins et des citoyens doivent être protégés et reconnus, notamment en leur donnant le droit à bénéficier de recours effectifs contre les auteurs de ces discours et leurs complices.

Pour cela, le DSA doit notamment se fonder sur une définition commune des contenus haineux illicites, appliquée à tous les États membres de l’Union européenne et, pour ce faire, se référer explicitement, au minimum, à la décision-cadre 2008/913/JAI du 28 novembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal et au Règlement 2021/692 du 28 avril 2021 établissant le programme « Citoyens, égalité, droits et valeurs ».

La décision-cadre de 2008 engage dans son article premier, les Etats-membres à agir contre l’incitation publique à la violence ou à la haine visant un groupe de personnes ou un membre d’un tel groupe, défini par référence à la race, la couleur, la religion, l’ascendance, l’origine nationale ou ethnique »… et les discours qui « nient, banalisent ou font l’apologie des crimes contre l’Humanité », y compris en ligne (« par diffusion ou distribution publique d’écrits, d’images ou d’autres supports » dit le texte).

Le règlement 2021/692 du 28 avril 2021, dans son article 4, invite explicitement les États membres à « prévenir et combattre les inégalités et les discriminations fondées sur le sexe, la race ou l’origine ethnique, la religion ou les convictions, un handicap, l’âge ou l’orientation sexuelle », et à « soutenir, faire progresser et mettre en oeuvre des politiques globales visant à lutter contre le racisme, la xénophobie et toutes les formes d’intolérance, notamment l’homophobie, la biphobie, la transphobie, l’interphobie et l’intolérance fondée sur l’identité de genre, en ligne et hors ligne ».

  1. Le DSA doit faciliter la mise en oeuvre du partenariat de confiance entre Autorités de régulation, plateformes et représentants de la société civile organisée

Le DSA prévoit l’habilitation de partenaires de confiance – ONGs, experts et organismes publics dans chaque État membre par l’Autorité nationale de régulation des réseaux sociaux. Les exercices menés pour tester la bonne application du Code de conduite de 2016, relatif aux discours haineux illégaux en ligne, soulignent la pertinence du dispositif des partenaires de confiance1. Ils démontrent également que le retrait des contenus illicites peut être effectué par les plateformes sans difficulté et dans des délais très courts, lorsqu’il s’agit d’une notification par un partenaire de confiance.

Afin de renforcer l’efficacité des partenaires de confiance, ces derniers doivent pouvoir disposer d’outils technologiques de monitoring conçus notamment par des entreprises publiques ou privées spécialisées. Les partenaires de confiance, tout comme les régulateurs nationaux, doivent également disposer du droit de consulter les données des plateformes utiles à la lutte contre les discours de haine pour approfondir leur monitoring, dans le respect des règles européennes de protection des données et notamment de la RGPD. Une telle démarche permettrait d’améliorer et de sécuriser leur travail afin de favoriser un dialogue plus équilibré entre la société civile, les acteurs institutionnels et les plateformes.

  1. Le DSA doit assurer lindépendance des ONGs partenaires de confiance ainsi que celle des Autorités nationales de régulation

Pour assurer le bon fonctionnement de ce dispositif et face aux dérives autoritaires observées dans certains États membres, le DSA doit définir des critères permettant de garantir l’indépendance des Autorités nationales de régulation. De la même façon, le DSA doit explicitement prévoir pour les organisations et les représentants de la société civile qui souhaitent être habilités comme partenaires de confiance une procédure d’appel devant l’Autorité européenne de régulation. En dernier recours, ces organisations et représentants doivent également pouvoir saisir la Cour de Justice de l’Union européenne.

  1. Le DSA doit affirmer la responsabilité des plateformes dans le retrait et le déréférencement rapide des contenus illicites

Le modèle économique des plateformes ne permet pas de donner la priorité au retrait ou au déréférencement rapide des contenus haineux des réseaux sociaux. Rien n’est plus efficace qu’un contenu à haute portée émotionnelle publié par un utilisateur très suivi, telle qu’une théorie du complot, pour susciter la polémique et attirer les visiteurs.

Le DSA offre une réelle opportunité de mettre en place un cadre juridique contraignant qui pourra inciter les plateformes à mieux protéger les utilisateurs des discours haineux. Les plateformes doivent, à cette fin et de façon concertée avec le Régulateur national et les partenaires de confiance, mettre en place un système de signalement gratuit, facile d’accès et efficace. Le DSA doit imposer aux plateformes l’obligation de répondre dans des délais brefs aux demandes, aux signalements et aux plaintes faites par les utilisateurs et les partenaires de confiance.

Si une plateforme refuse de supprimer un contenu manifestement illicite, le DSA doit lui imposer de fournir au Régulateur national et à l’usager les informations utiles sur le type de modération utilisée et les motifs qui justifient, selon elle, la décision prise, et la possibilité d’appel. Seul un dispositif prévoyant une sanction judiciaire en cas de manquement des plateformes les encouragera à retirer les contenus haineux dès qu’elles en auront connaissance. Les sanctions pouvant être prononcées contre les plateformes en cas de non-respect du DSA doivent être dissuasives et prononcées par un Juge ou une Autorité de régulation indépendante.

  1. Le DSA doit imposer une véritable transparence aux plateformes

Le DSA doit encadrer et garantir le respect des obligations de déclaration et de transparence par les plateformes, sous le contrôle de chaque Autorité nationale de régulation.

Dans ce cadre, les plateformes doivent rendre publiques des informations précises et pertinentes sur les moyens humains et technologiques utilisés pour assurer la modération des contenus. Ces rapports de transparence doivent nécessairement inclure les critères et définitions utilisés par les plateformes pour le retrait ou blocage d’un contenu manifestement illicite ainsi que les données chiffrées par trimestre par État-membre. Ces données doivent notamment concerner les signalements normaux et prioritaires, les retraits, géo-blocages et autres types de décisions, le format de contenus, les types de haine ; le type de modération utilisée et la durée de traitement.

L’objectif est de permettre aux autorités de régulation et aux partenaires de confiance d’avoir une meilleure compréhension de la façon dont sont conçus les outils technologiques de modération et notamment ceux liés à l’intelligence artificielle, de quelles façons ils sont utilisés par les plateformes, la place, le nombre et la formation des modérateurs humains. Les Autorités nationales de régulation doivent également disposer des moyens techniques et humains capables d’auditer la modération des plateformes. En cas de dysfonctionnements constatés, elles doivent exercer leur pouvoir de sanction. Ces sanctions devraient représenter, au minimum, 6 % du chiffre d’affaires annuel des plateformes. En complément, les plateformes doivent également se soumettre à des audits indépendants.

  1. Le DSA doit imposer la désignation par les plateformes dun représentant légal dans chaque Etat membre

Les ONGs, les usagers ainsi que les autorités de régulation n’ont pas toujours, au niveau national, de véritables interlocuteurs chez les plateformes. Elles se heurtent aussi à des législations hors UE ne permettant ni le retrait de contenus illicites, ni la transmission d’informations permettant la levée du pseudonymat dans le but d’engager des poursuites. La désignation par les plateformes d’un représentant légal national, juridiquement responsable de l’activité de la plateforme qu’il représente et apte à recevoir l’ensemble des notifications émanant des usagers, de l’autorité de régulation et de l’autorité judiciaire (demandes d’informations, actes de procédure, décisions, etc.) permettra à la fois de lutter avec une plus grande contre les discours de haine et de mieux prendre en compte les intérêts des victimes des discours de haine.

  1. Le DSA doit affirmer limportance du contrôle de ces dispositions par un juge indépendant

Les utilisateurs des réseaux sociaux et les partenaires de confiance doivent avoir la possibilité de saisir le Juge en cas de non-suppression par une plateforme d’un contenu signalé considéré comme illicite. Dans le cadre d’une procédure d’urgence, le Juge pourra, dans un délai très court, ordonner le retrait, le déréférencement ou le blocage de l’accès au contenu illicite pour faire cesser sa diffusion et le dommage occasionné. La saisine du Juge doit être également ouverte à tout intéressé, notamment aux utilisateurs contestant une décision considérée comme injustifiée à l’égard de la publication de leur contenu.

  1. Le DSA doit permettre à un juge indépendant d’empêcher la republication de contenus identiques et de sites miroirs déclarés comme illicites

Les juridictions et les autorités de régulation des Etats-membres doivent pouvoir enjoindre un hébergeur, conformément à la décision de la Cour de Justice de l’Union européenne du 3 octobre 2019, de supprimer toutes les informations dont le contenu est identique et/ou équivalent à celui d’un contenu déclaré comme illicite, en recourant « si cela apparaît nécessaire » à « des techniques et à des moyens de recherche automatisés »2.

Les ONG et associations soussignées vous invitent à répondre favorablement à leur appel et à l’engagement pris par Madame Von der Leyen le 16 septembre 2020 de lutter avec efficacité contre « toutes les formes de crimes de haine et de discours de haine, quils se fondent sur la race, la religion, le genre ou la sexualité ».

Signataires : CEJI – A Jewish Contribution to an Inclusive Europe ; Center Communautaire Laïc Juif (CCLJ) [Belgique] ; CESIE-centro studi e iniziative europeo [Italie] ; Dare to be Grey [Pays-Bas] ; Estonian Human Rights Centre [Estonie] ; Europäische Akademie Nordrhein-Westfalen [Allemagne] ; European Association of Judges (EAJ) ; European Council of WIZO Federations (ECWF) ; European Federation of Centres of Research and Information on Cults and Sects (FECRIS) ; European Forum for Urban Security (EFUS) ; European Network for Education and Training (EUNET) ; European Observatory for Non-Discrimination and Fundamental Rights (EONDFR) ; Federation for EDucation for Europe (FEDE) ; Fighting Online Antisemitism (FOA) [Israel] ; Greek Helsinki Monitor [Grèce] ; Humanist Union of Greece [Grèce] ; I Am Here International ; International Network Against Cyber Hate (INACH) ; Robert Schuman Institute for Europe (IRSE) ; International Confederation of Intellectual Workers (ICIW) ; #jesuislà [France] ; Latvian Centre for Human Rights [Lettonie] ; Ligue des droits de l’Homme (LDH) [France] ; International League Against Racism and Anti-Semitism (LICRA) ; LOVE-Storm [Allemagne] ; MDI UK [Royaume-Uni] ; MDI Global ; MDI Western Balkans ; Minority Rights Group [Grèce] ; Never Again Association [Pologne] ; Respect Zone [France] ; Robert Schuman European Centre (CERS) [France] ; ROMEA [République Tchèque] ; Union Syndicale des Magistrats [France] ; University Women of Europe (UWE) ; ZARA [Autriche].

1 Le code de conduite signé en 2016 entre la Commission européenne et les principales plateformes : https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-codeconduct-countering-illegal-hate-speech-online_en
2 Arrêt de la Cour de justice de l’Union européenne (CJUE) du 3 octobre 2019, dans l’affaire C-18/18, ayant pour objet une demande de décision préjudicielle au titre de l’article 267 TFUE, introduite par l’Oberster Gerichtshof (Cour suprême, Autriche), dans la procédure Eva Glawischnig-Piesczek contre Facebook Ireland Limited. Sur le modèle de la directive Copyright du 26 mars 2019, les réseaux sociaux peuvent mettre en place des filtres automatisés pour empêcher la réapparition de contenus soumis au droit d’auteur.
 
Share This