Ces 20 dernières années, les plateformes numériques, dont les réseaux sociaux, ont pris une importance considérable. Elles permettent à chacun de jouer un rôle de plus en plus actif dans le débat public, de diffuser et de consommer davantage de contenus. Ce développement s’est accompagné de dérives dont certaines ont particulièrement marqué les esprits comme les campagnes de désinformation dans le cadre de la crise sanitaire ou des élections aux États-Unis et en France. Mais aussi les incitations à la haine et au meurtre. On pense notamment à l’assassinat du professeur d’histoire Samuel Paty ou aux récentes émeutes en France.  

Pour réguler de manière globale tout cet écosystème numérique, l’Europe disposait de la directive sur le commerce électronique. Adoptée en 2000, elle n’était plus adaptée aux spécificités actuelles. Le législateur européen entendait donc la faire évoluer.  

Le régulateur n’est pas le seul acteur qui doit agir pour freiner la diffusion des contenus illégaux. À côté de cette voie juridique, il est important d’investir dans l’éducation aux médias, au numérique et au développement de l’esprit critique pour que les utilisateurs soient à même de détecter le problème d’un contenu et de prendre la distance nécessaire.

C’est dans ce contexte que le CRIDS a réalisé deux études sur la directive européenne, ses limites et sa nécessaire évolution. La première a été menée en collaboration avec la KULeuven pour le SPF économie, en vue des négociations qui allaient être entamées au Parlement européen. Les chercheurs ont analysé le texte, disposition par disposition en précisant le contexte, le but, la manière dont chacune était interprétée par la Cour de justice. Ils ont ensuite adressé une série de recommandations en proposant de « réécrire » les dispositions et en justifiant chaque modification. 

La seconde étude, réalisée à la demande du Parlement européen, concernait la modération des contenus illégaux en ligne et le rôle des acteurs du numérique. Le CRIDS a dressé un état des lieux du cadre européen. Il a défini les différentes catégories de contenus illégaux. Il a ensuite formulé des recommandations sur les règles de modération. Il a mis en avant le besoin de garanties adéquates et efficaces pour le respect des droits humains, surtout en matière de liberté d’expression. Le CRIDS a aussi insisté sur la nécessité de rendre le « jeu » équitable entre les différents acteurs du numérique de manière à soutenir la concurrence et éviter de favoriser les GAFAM. Il a donc plaidé pour que les acteurs aient plus ou moins d’obligations en fonction de leur taille, de leur moyen et des risques qu’ils présentent pour la société. 

Alejandra Michel

Le législateur européen a finalement décidé de ne pas adapter la directive sur le commerce électronique qui reste applicable, mais d’adopter un nouveau règlement, le Digital Services Act (voir encadré). « Ce règlement aura un impact sociétal fort. En effet, les plateformes en ligne exercent un pouvoir considérable sur le débat public. Aujourd’hui, tout le monde s’y exprime. Ce sont elles qui contrôlent les contenus que ce soit par des algorithmes de recommandation ou par la modération. Le DSA vise à encadrer ce contrôle exercé par les plateformes », explique Alejandra Michel, chercheuse au CRIDS.  

Le CRIDS entend maintenant poursuivre ses travaux sur le DSA, notamment par le biais de sa nouvelle unité de recherche « Médias ». Il étudiera entre autres l’interprétation des dispositions, la jurisprudence qui se met en place et l’évaluation des effets pervers du texte, par exemple en matière de liberté d’expression. 

Le DSA en bref

Principaux objectifs :

Pour les citoyens 

  • Protection accrue des droits fondamentaux 

  • Exposition moindre aux contenus illicites 

Pour les fournisseurs de services numériques 

  • Sécurité juridique, règles harmonisées 

  • Responsabilisation 

Pour la société dans son ensemble 

  • Contrôle démocratique et surveillance des acteurs du numérique renforcés 

  • Atténuation des risques systémiques pour les très grandes plateformes en ligne, tels que la manipulation ou la désinformation 

Les nouvelles obligations concernent notamment  :

  • L’adoption de conditions d’utilisation respectant les droits fondamentaux 

  • Le signalement et la modération des contenus illicites 

  • Les mécanismes de réclamation et de recours et règlement extrajudiciaire des litiges 

  • Les mesures contre les comportements abusifs 

  • La transparence des systèmes de recommandation et plus généralement des pratiques de modération 

  • La gestion des risques, la coopération en matière de réaction aux crises  

Bon à savoir

Afin de faciliter la recherche, une disposition du DSA oblige les très grandes plateformes en ligne (Amazon, Facebook, Instagram, etc.) à rendre leurs données accessibles aux chercheurs accrédités. 

À qui les règles s’imposent-elles ?

Aux services intermédiaires en ligne, utilisés chaque jour par des millions d’Européens.

L’application des obligations dépend du rôle et de la taille des acteurs et de leur impact sur l’écosystème en ligne. 

  • Les services intermédiaires qui proposent des infrastructures de réseau (fournisseurs d’accès à Internet et fournisseurs de services de « mise en cache ») 

  • Les services d’hébergement  

  • Les moteurs de recherche 

  • Les plateformes en ligne : places de marché en ligne, boutiques d’applications, plateformes d’économie collaborative, réseaux sociaux… 

  • les très grandes plateformes en ligne et les très grands moteurs de recherche dont le nombre d’utilisateurs atteint au moins 10 % de la population UE 

Le DSA, une menace pour la Liberté d’expression ?

« La définition de contenu illicite dans le DSA est extrêmement large. Or ce sont les plateformes qui vont devoir en juger. Le flux d’information est effectivement tellement important, qu’il serait impossible de présenter chaque cas devant un juge », souligne Alejandra Michel. Elle plaide dès lors pour un accompagnement des employés qui devront trancher sans en avoir réellement les compétences.  

Autre problème : Les plateformes risquent de trop censurer le débat public pour éviter les lourdes amendes. D’autant que le DSA n’a pas prévu de disposition pour sanctionner celles qui suppriment trop de contenu légal, contrairement à ce que le CRIDS avait recommandé. « On renforce donc leur rôle dans le contrôle du débat public puisqu’on leur confie la responsabilité de la modération ! », regrette la chercheuse. 

Enfin, le DSA met en danger la liberté de la presse parce qu’il ne prévoit pas d’exception pour le contenu journalistique. Cela signifie que sur les réseaux sociaux, il est soumis aux mêmes règles que les publications des utilisateurs.  

Omalius#30 - cover

Cet article est tiré de la rubrique "Impact" du magazine Omalius#30 (Septembre 2023).

Lire Omalius #30 en ligne sur Calameo

Vous désirez recevoir Omalius au format papier ?  Rien de plus simple !

Remplissez notre formulaire d'abonnement en ligne.  C'est gratuit !