France: La proposition de loi visant à lutter contre le discours de haine en ligne constitue une menace pour la liberté d’expression

ARTICLE 19 s’inquiète du fait que la proposition de loi française visant à lutter contre la haine sur Internet ne soit pas conforme aux normes internationales relatives à la liberté d’expression. Nous alertons sur le fait que le projet de loi renforce la censure privée d’un large éventail de contenus illicites aux dépens des tribunaux, que la limite de 24 heures fixée pour le retrait de contenus est trop courte et que les sanctions prévues pour éradiquer la « haine » en ligne sont disproportionnées. ARTICLE 19 exhorte l’Assemblée nationale à rejeter cette proposition de loi. En revanche, le gouvernement français devrait explorer d’autres options pour adopter une approche plus globale des problèmes liés au pouvoir et l’influence des plateformes de médias sociaux dominantes.

Le 20 mars 2019, la députée Laetitia Avia a présenté devant l’Assemblée nationale une proposition de loi visant à lutter contre la haine sur Internet. La proposition de loi suit le modèle de la loi allemande NetzDG et les recommandations de la mission Avia pour lutter contre le racisme et l’antisémitisme en ligne émises en 2018. Le 19 juin 2019, la Commission des lois de l’Assemblée nationale a adopté la proposition de loi, avec plusieurs amendements. Le nouveau texte a été débattu le 3 juillet à l’Assemblée nationale dans le cadre d’une procédure accélérée, qui ne permet qu’une seule lecture du texte dans chaque chambre du Parlement français (Assemblée et Sénat).

Aspects principaux de la proposition de loi

Le projet de loi contient, entre autres, les dispositions suivantes :

  • Les opérateurs de services de communication ayant un nombre d’utilisateurs fixé par décret seront tenus de supprimer des contenus incitant manifestement à la haine ou des injures discriminatoires à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap, qui sont jugés illégaux au regard de la loi française, et ce dans un délai de 24 heures après notification ;
  • La procédure de notification des contenus litigieux auprès du fournisseur de services en ligne sera simplifiée. En particulier, les individus souhaitant signaler « un contenu manifestement illicite » ne seront plus tenus d’énoncer les faits et les raisons pour lesquels ils jugent ce contenu litigieux ;
  • Les opérateurs de services de communication devront mettre en place des mécanismes internes de plainte et donner des informations sur les voies de recours externes.
  • Les opérateurs devront disposer d’un représentant légal dans le pays où ils opèrent ;
  • Les opérateurs se verront également contraints de se conformer à un certains nombre d’obligations de transparence fixées par le régulateur ;
  • Le régulateur de l’audiovisuel français sera apte à émettre des recommandations sur la manière dont les opérateurs pourront le mieux identifier la « haine » en ligne ;
  • Le régulateur de l’audiovisuel français pourra imposer des amendes d’un montant susceptible d’atteindre 4 % du chiffre d’affaires annuel mondial de l’opérateur pour manquement grave et réitéré à l’obligation de retrait de contenu ;
  • Une autorité administrative – en pratique l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), c’est-à-dire un organisme spécial de la police voué à la lutte contre les contenus en ligne à caractère terroriste et les images à caractère pédophile – sera autorisée à ordonner le blocage ou le déréférencement de sites Internet, de serveurs ou de tout autre moyen électronique permettant d’accéder au contenu qui a été jugé illicite par décision d’un tribunal.
  • Les sanctions financières pour refus de coopérer avec les autorités judiciaires ou autres organismes, y compris en conservant des informations qui pourraient permettre d’identifier ceux qui ont mis en ligne les contenus présumés illicites, passeraient de 75 000 à 250 000 EUR.

Le 19 juin 2019, la Commission des lois de l’Assemblée nationale a examiné la proposition de loi à la lumière d’un certain nombre de recommandations émises par le Conseil d’État dans son Avis du 16 mai 2019. La Commission des lois a adopté la proposition de loi avec les amendements suivants :

  • Portée : La portée de la proposition de loi a été considérablement élargie au niveau des entreprises concernées et du type de contenus concernés.
  • Obligations procédurales : La proposition de loi simplifie la procédure de retrait fixée par la Loi no. 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Toutefois, le dernier projet maintient l’obligation pour les personnes de fournir des informations sur les faits et les raisons de la notification, et de donner la localisation du contenu litigieux le cas échéant.
  • Garanties contre les abus de procédure de retrait : La proposition de loi crée une nouvelle infraction consistant à déclarer sciemment qu’un contenu est illégal aux fins de demander son retrait. En d’autres termes, elle pénalise les demandes de retrait malveillantes. L’infraction est passible d’une peine d’emprisonnement d’un an et d’une amende de 15 000 EUR.
  • Obligations de transparence : La proposition de loi énonce plus en détail les obligations de transparence auxquelles les opérateurs doivent se conformer au lieu de laisser le régulateur en décider. En particulier, les opérateurs sont tenus de rappeler aux auteurs de contenus « manifestement illicites » supprimés qu’ils s’exposent à des sanctions civiles et pénales pour l’infraction concernée. Les opérateurs doivent clarifier leurs règles relatives à la modération des contenus. Ils doivent également expliquer comment ils s’organisent eux-mêmes en interne et les ressources qu’ils déploient en vue de se conformer à leurs obligations en matière de retrait de contenu. Ils doivent également éduquer les mineurs de moins de 15 ans sur l’utilisation responsable et civique de leurs services et les sanctions pénales potentielles encourues s’ils publient ou partagent des contenus « haineux ».
  • Le régulateur : Les opérateurs sont dorénavant explicitement tenus de se conformer aux recommandations du régulateur de l’audiovisuel. Le non-respect est pris en compte pour déterminer si un opérateur a globalement manqué à ses obligations en matière de retrait. En procédant à cette évaluation, le régulateur est également tenu dorénavant d’examiner à la fois si les prestataires de services de communication omettent de supprimer suffisamment de contenus ou en suppriment trop.
  • Blocage de sites miroirs : Dans le dernier projet, l’OCLCTIC ne peut exiger que le blocage ou le déréférencement de sites, de serveurs ou autres moyens électroniques permettant d’accéder à un contenu jugé illicite par décision de justice. Si les prestataires refusent d’obtempérer, l’OCLCTIC peut adresser une demande (y compris en référé) à la justice, qui peut ensuite ordonner le retrait ou une autre restriction à l’accès au contenu concerné.
  • Autres sanctions : La proposition de loi criminalise dorénavant les manquements des opérateurs en matière de retrait de contenu manifestement « haineux », passible d’une peine d’un an d’emprisonnement et de 250 000 EUR pour les personnes physiques, et jusqu’à 1 250 000 EUR pour les personnes morales si d’autres amendements sont adoptés.

Inquiétudes d’ARTICLE 19

ARTICLE 19 a de vives inquiétudes sur le texte adopté par la Commission des lois. En vertu du droit international relatif aux droits de l’homme, toute restriction de la liberté d’expression doit (1) être prévue par la loi ; (2) viser un des buts légitimes énoncés de manière exhaustive à l’Article 19 (3) du Pacte international relatif aux droits civils et politiques (PIDCP) OU à l’Article 10 (2) de la Convention européenne des droits de l’homme (Convention européenne) ; et (3) être nécessaire et proportionnée à ce but. Selon notre point de vue, la proposition de loi ne satisfait pas au premier volet de ce triple test dans la mesure où elle ne prévoit pas de fournir des garanties suffisantes pour la protection de la liberté d’expression.

Premièrement, la portée de la proposition de loi a été considérablement élargie, à la fois pour les opérateurs concernés par la proposition de loi ainsi que pour les types de contenu à retirer :

  • La proposition de loi concerne dorénavant explicitement les moteurs de recherche. Un nouvel amendement devrait intégrer les fournisseurs de services de communication dans le champ d’application lorsqu’ils permettent l’échange de contenu, public ou privé, ainsi que les hébergeurs de forums publics en tant qu’activité auxiliaire. Cela pourrait poser des problèmes importants pour le droit au respect de la vie privée si les fournisseurs de services de communication sont tenus de surveiller leurs réseaux afin de détecter des contenus « illicites ».
  • L’obligation de retirer les contenus « manifestement illicites » dans un délai de 24 heures a été étendue à un large éventail de contenus illicites au regard du droit français, notamment : apologie d’actes portant atteinte à la dignité humaine, crimes de guerre, crimes contre l’humanité, esclavage, crimes de collaboration avec l’ennemi, atteinte volontaire à la vie ou l’intégrité physique de la personne, agression sexuelle, vol aggravé, extorsion ou destruction, dégradation ou détérioration volontaire dangereuse pour la personne, harcèlement sexuel, traite des êtres humains, proxénétisme, incitation à ou apologie d’actes de terrorisme et contenu à caractère pédophile. Bien qu’une partie de ces lois sous-jacentes couvrent le discours ou la conduite pouvant faire l’objet de restrictions, certaines sont trop larges et trop floues au regard des normes relative à la liberté d’expression. Par exemple, le délit d’apologie d’atteinte volontaire à la vie des personnes a été utilisé pour incriminer des plaisanteries de mauvais goût sur les attaques terroristes du 11 septembre 2001.

Deuxièmement, la proposition de loi prévoit des sanctions qui sont susceptibles d’être disproportionnées au regard des normes relatives à la liberté d’expression. En particulier, le montant des sanctions financières dont sont passibles les opérateurs qui omettent de retirer un contenu ou de se conformer à leurs autres obligations semble excessivement élevé et risque de conduire à une suppression excessive de contenu. Il en va de même pour les sanctions pénales pour l’absence de retrait de contenus mentionnés ci-dessus. Le niveau des amendes pour non-coopération, entre autres, est si élevé qu’il compromet la protection du droit au respect de la vie privée. Si les opérateurs de services de communication s’exposent à des amendes de 250 000 EUR, il semble très improbable qu’ils soient disposés à refuser de communiquer les coordonnées des utilisateurs accusés d’avoir mis en ligne un contenu illégal.

Troisièmement, ARTICLE 19 considère que le régime proposé pour l’application de la loi est problématique. En particulier :

  • La période de 24 heures est excessivement courte pour prendre des décisions concernant le « discours de haine », qui est un domaine du droit intrinsèquement contextuel et requiert un examen des faits au cas par cas. Il semble peu probable que le seuil de « l’illégalité manifeste » aide dans la pratique ;
  • Le régulateur pourrait recommander de télécharger des filtres en tant que moyen plus « efficace » de lutter contre le « discours de haine » mais on ne sait pas ce qui se passerait si l’opérateur de services de communication refusait de suivre ces recommandations ou ces conseils. Il semble plus probable qu’il soit considéré comme ayant violé ses obligations en matière de suppression de contenu ;
  • Bien que l’OCLCTIC ne puisse plus imposer des restrictions à l’accès à des contenus « en miroir », il peut toujours saisir les tribunaux pour obtenir une telle injonction si les opérateurs ne se conforment pas à ses exigences. Il semble toutefois que ces injonctions seraient rendues ex parte ;

ARTICLE 19 reconnaît que le texte adopté par la Commission des lois contient un certain nombre d’améliorations pour la protection de la liberté d’expression. Par exemple, la dernière version de la proposition de loi a rétabli un certain degré d’équité en matière de procédure en obligeant, entre autres, les personnes ou les opérateurs notifiant un contenu à exposer les faits et les raisons du signalement du contenu en question. Nous accueillons également favorablement les dispositions du projet de loi visant à améliorer les rapports de transparence sur les plateformes ou à établir des mécanismes internes de plainte. Le fait d’exiger du régulateur qu’il prenne en compte les suppressions excessives de contenu lors du contrôle du respect de la loi est aussi un point positif. Bien que la nouvelle infraction sanctionnant les demandes de mauvaise foi ne soit pas une panacée – il est notoire que la mauvaise foi est difficile à prouver –, elle contribue à la protection de la liberté d’expression. Néanmoins, nous estimons que ces améliorations sont insuffisantes pour rétablir l’équilibre des incitations au retrait de contenu.

Dans l’ensemble, ARTICLE 19 s’inquiète du fait que le nouveau cadre réglementaire défini dans la proposition de loi Avia sur le discours de haine en ligne renforce des pouvoirs de la censure privée et que ses sanctions financières particulièrement punitives seront très dommageables pour la liberté d’expression.

Une approche différente et globale

ARTICLE 19 exhorte l’Assemblée nationale à faire une pause avant d’adopter la proposition de loi et à examiner avec soin l’approche proposée par le gouvernement français dans le rapport « Mission Facebook ». Selon notre point de vue, la protection des droits humains, la transparence et la redevabilité devraient être au cœur de toutes les propositions visant à réguler les plateformes de médias sociaux.

Nous encourageons également les législateurs à adopter une approche plus globale des préoccupations concernant le pouvoir et l’influence des plus grandes plateformes de médias sociaux. En particulier, les législateurs devraient explorer des options qui récompenseraient les opérateurs adoptant les normes de conduite les plus élevées. Cela pourrait inclure une labellisation ou un classement qui permettrait au public de reconnaître les opérateurs qui se conforment à des normes de conduite plus strictes. Les décideurs devraient également envisager des modèles multipartites indépendants, tels que les Conseils de médias sociaux.

Enfin, nous appelons le gouvernement français à examiner des options de « dégroupage », peut-être semblables à celles déjà adoptées dans les marchés de services publics européens, ou de tels changements récemment introduits pour les services de paiement européens à travers la PSD2. De manière générale, les grandes plateformes ouvriraient une version neutre de leur service (c’est-à-dire sans leur classement ou les normes de la communauté). Les concurrents proposeraient alors un service où les usagers pourraient trouver le même contenu mais choisiraient d’appliquer des règles de classement et de suppression différentes. Nous sommes convaincus que les législateurs français et d’autres devraient examiner davantage cette idée, car elle les aiderait à résoudre certains des problèmes soulevés par la domination de certains opérateurs numériques.

 

Posted In