Les gouvernements à travers le monde cherchent à réglementer la façon dont les entreprises de réseaux sociaux gèrent les contenus problématiques sur leurs plates-formes, notamment le discours de haine, le harcèlement et la désinformation.
Cependant, bien qu’elles soient bien intentionnées, leurs propositions risquent de faire plus de mal que de bien, et elles ne réussissent pas à s’attaquer au problème réel : le pouvoir excessif de quelques entreprises colossales dont les modèles commerciaux se basent intrinsèquement sur l’exploitation.
Les notes de politiques d’ARTICLE 19 fournissent une solution qui protégerait la liberté d’expression et le droit à la vie privée en ligne, et qui nous donnerait aussi – enfin – une alternative viable à la Big Tech.
Le problème des plates-formes
Les réseaux sociaux constituent un espace vital pour se connecter, partager et accéder à l’information. Cependant, comme les modèles commerciaux des grandes plates-formes reposent sur la captation de notre attention et sa vente à des annonceurs, leurs algorithmes sont conçus pour nous maintenir engagés aussi longtemps que possible sur les réseaux sociaux – y compris en amplifiant les contenus problématiques comme le discours de haine et la désinformation.
Les gouvernements ont présenté diverses propositions pour y remédier. Toutefois, au lieu de s’attaquer à ce modèle commercial défectueux, bon nombre de leurs prétendues solutions se focalisent sur la question de savoir quels types de contenus les internautes devraient, ou ne devraient pas, être autorisés à publier ou à consulter sur les réseaux sociaux.
Cela donne aux grandes plates-formes encore plus de pouvoir pour contrôler ce que nous visualisons, ce que nous disons et ce que nous partageons en ligne – les conséquences étant désastreuses pour le débat public, la libre circulation de l’information et la démocratie elle-même.
Le débat sur les réseaux sociaux est entaché par le « drame réglementaire » : nous ne voulons pas une intrusion de l’État, mais nous voulons une meilleure réglementation.
Alors comment résoudre ce drame ?
ARTICLE 19 propose une solution à deux volets.
La solution d’ARTICLE 19
1. Comment réglementer la modération de contenu tout en protégeant la liberté d’expression
Tout d’abord, notre note de politique intitulée Watching the Watchmen explique comment les gouvernements peuvent s’assurer que leurs efforts visant à réglementer les plates-formes respectent la liberté d’expression des utilisateurs, améliorent la transparence, la responsabilisation et le processus de prise de décision des plates-formes, et – surtout – évitent de donner encore plus de pouvoir à une poignée d’entreprises qui dominent la sphère numérique.
Surveiller les gardiens
Comment réglementer la modération de contenu tout en protégeant la liberté d’expression
Mais l’établissement de normes relatives aux droits humains pour les services de réseaux sociaux ne résout qu’une partie du problème.
À l’heure actuelle, un petit nombre de plates-formes dominent le marché des réseaux sociaux, exploitent leurs utilisateurs et violent nos droits à la vie privée, à la liberté d’expression et à la non-discrimination. Et le manque d’alternatives viables nous enferme dans ces relations d’exploitation.
Pour vraiment résoudre les problèmes des marchés de réseaux sociaux, nous devons nous attaquer au pouvoir excessif d’une poignée d’entreprises colossales qui les contrôlent.
2. Comment lutter contre le pouvoir excessif des géants des réseaux sociaux?
La seconde note de politique d’ARTICLE 19, Taming Big Tech, nous explique comment y parvenir.
Elle fournit une solution favorable à la concurrence qui transformerait les réseaux sociaux – en passant d’un espace fermé, contrôlé par une poignée d’entreprises exploiteuses et gangrenées par le discours de haine et la désinformation, à un espace ouvert et respectueux de la diversité, où nous aurions un choix véritable entre plusieurs fournisseurs de services et où nous pourrions nous libérer de ces relations d’exploitation.
Dompter la Big Tech
Comment lutter contre le pouvoir excessif des géants des réseaux sociaux
Ensemble, ces deux propositions protégeraient la liberté d’expression, le pluralisme des médias et la diversité, et favoriseraient des plates-formes plus ouvertes, équitables et décentralisées permettant la libre circulation de l’information.
C’est une solution gagnant-gagnant : pour les utilisateurs de réseaux sociaux, pour les plus petits fournisseurs de services et pour la société et la démocratie plus généralement.
Réponses aux questions clés
Il est certainement encouragement que les gouvernements veuillent s’attaquer aux abus, aux discours de haine et à d’autres contenus problématiques en ligne – des problèmes que les plus grandes plates-formes n’ont jamais réussi à résoudre et qui éloignent de nombreux utilisateurs.
Mais si leurs intentions peuvent être compréhensibles, bon nombre de leurs véritables propositions feraient plus de mal que de bien.
En effet, alors qu’elles prétendent réguler les plates-formes, les propositions des gouvernements visent plutôt à réguler la parole des utilisateurs. Effectivement, les gouvernements demandent aux plates-formes de nous contrôler et de décider quels types de discours sont « illégaux » – ou même « légaux mais nuisibles ». Cela donnerait encore plus de pouvoir à une poignée d’entreprises colossales.
La note de politique d’ARTICLE 19 Watching the Watchmen explique comment les gouvernements peuvent réglementer la modération et la curation de contenus des plates-formes de manière à protéger les droits des utilisateurs.
Mais les systèmes actuels de la modération et la curation du contenu ne sont qu’une partie du problème. Les gouvernements doivent également s’attaquer au pouvoir excessif des entreprises technologiques dominantes.
Ce pouvoir excessif joue un rôle essentiel dans les défis de la liberté d’expression. C’est la raison pour laquelle nos propositions offrent une solution à deux volets qui empêche une plus grande concentration de ce pouvoir et définit une solution innovante pour créer des marchés de réseaux sociaux plus ouverts, équitables et décentralisés.
De ce fait, les deux notes de politique d’ARTICLE 19 représentent les deux faces d’un même problème – et les deux solutions sont nécessaires pour protéger les droits des utilisateurs.
Dans le monde, plus des trois quarts des personnes âgées de 13 ans et plus utilisent les réseaux sociaux, et nous passons en moyenne 2,5 heures sur les plates-formes chaque jour.
Partir tout simplement n’est pas une option pour la plupart d’entre nous, parce que les réseaux sociaux sont essentiels dans tous les aspects de notre vie.
Qu’il s’agisse de rester en contact avec des amis ou la famille, de faire du shopping, de se tenir au courant de l’actualité mondiale ou de participer à des forums communautaires, de poursuivre des études ou de s’adonner à nos passe-temps, d’organiser un anniversaire ou échanger des informations sur des manifestations, les réseaux sociaux sont devenus nos places de villages, nos mairies et nos hôtels de ville. numériques.
Suggérer que des personnes puissent simplement quitter les réseaux sociaux, c’est se mettre dans une position très privilégiée. Pour un grand nombre de personnes, quitter les réseaux sociaux reviendrait à quitter nos communautés – voire nos sociétés – et être coupés de services fondamentaux.
Et nous ne devrions pas non plus partir, sachant qu’il n’y a pas de service concurrent vers lequel se tourner – ce qui est en soi un résultat de la domination du marché par les grandes entreprises technologiques.
Nous sommes coincés entre le marteau et l’enclume.
La seule échappatoire est de s’attaquer au pouvoir excessif de la Big Tech.
Les monopoles de toutes sortes sont mauvais pour la société. Ils contrôlent le marché, nous contraignent à utiliser leurs biens ou services et n’ont aucune incitation à s’améliorer – après tout, il n’y a aucune concurrence ou alternative.
Aucune entité – privée ou publique – ne devrait contrôler le flux d’information dans la société. Pourtant, le pouvoir excessif des grandes plates-formes de réseaux sociaux, combiné à leur popularité en tant que source d’information et leur pouvoir sur ce que nous visualisons, signifie qu’elles peuvent le faire.
Cela fait des plates-formes dominantes des gardiens : non seulement du marché (parce qu’elles peuvent se débarrasser des concurrents et enfermer les utilisateurs) mais aussi des droits humains (parce qu’elles peuvent nous accorder ou restreindre nos droits à la vie privée, à la liberté d’expression et à d’autres droits fondamentaux).
Pour résoudre ces problèmes, nous devons affaiblir ce pouvoir et le contrôler
La note de politique d’ARTICLE 19 Taming Big Tech offre une solution unique à ces deux problèmes : les systèmes actuels de la modération et la curation de contenu sur les plates-formes de réseaux sociaux, et le pouvoir excessif des entreprises qui les possèdent.
Nous proposons de séparer (ou de « dégrouper ») deux services fournis par les plates-formes en un seul paquet (un « forfait ») : (1) l’hébergement de contenu, et (2) la curation de contenu.
À l’heure actuelle, les plates-formes à la fois hébergent nos contenus (c’est-à-dire que nous pouvons créer nos profils et les poster sur leurs plates-formes) et assurent sa curation (c’est-à-dire qu’elles utilisent leurs propres algorithmes pour créer notre fil d’actualité : ce que l’on voit sur leurs plates-formes). Elles ne nous laissent aucun choix : elles présentent l’hébergement et la curation – deux services distincts – comme un tout indissociable.
Mais il n’y a aucune raison pour que ces services soient inséparables. La seule raison pour laquelle ils le sont, c’est que cela permet aux entreprises dominantes d’évacuer les concurrents, de bloquer les utilisateurs sur leurs plates-formes, et d’optimiser leurs bénéfices déjà outranciers (Meta, par exemple, a réalisé des bénéfices de 39,37 milliards de dollars en 2021).
La séparation de ces deux services signifierait que les grandes plates-formes pourraient toujours héberger notre contenu (c’est-à-dire que nous pourrions toujours utiliser notre profil existant sur leur plate-forme), mais qu’elles devront autoriser des tiers à effectuer la curation (c’est-à-dire créer notre fil d’actualité). Des tierces parties pourraient alors rivaliser avec les géants de la Big Tech pour sélectionner ce que nous voyons de manière plus diversifiée, nous offrant ainsi un contrôle plus grand et un choix plus important, et brisant le monopole actuel.
Cela signifie que, par exemple, Facebook devra nous demander si nous voulons que ce soit Facebook lui-même ou une autre entreprise – que nous pourrions choisir librement – qui sélectionne le contenu pour nous. Nous pourrions alors choisir une entreprise qui privilégie la confidentialité, ou simplement une entreprise spécialisée dans un contenu qui nous intéresse (que ce soit le football, le hip-hop, ou le changement climatique), pour sélectionner le contenu qui apparaît sur notre fil d’actualité.
Bien sûr, certains utilisateurs seront heureux que Facebook continue à la fois d’héberger et de gérer leur contenu – et cela pourrait rester également une option. Le facteur crucial ici est la capacité de choisir de l’utilisateur.
Mais le modèle actuel est tellement lucratif pour les grandes plates-formes qu’elles ne vont pas changer de leur plein gré. C’est la raison pour laquelle la solution d’ARTICLE 19 nécessite des régulateurs indépendants et responsables pour son application et sa supervision.
Fondamentalement, nous avons besoin à la fois de dégroupage et de normes conformes aux droits humains auxquels tous les fournisseurs de curation de contenu, du plus petit au plus grand, devront adhérer.
N’est-il pas temps qu’ils payent pour résoudre les problèmes qu’ils ont eux-mêmes créés ?
C’est la raison pour laquelle ARTICLE 19 estime que les plus grandes plates-formes devraient payer la note pour séparer l’hébergement de contenu et la curation de contenu.
Et c’est la raison pour laquelle les gouvernements devraient imposer une taxe sur les plus grandes plates-formes pour financer nos autres solutions, comme donner aux gens l’accès à des mécanismes de résolution des différends lorsque leur contenu est supprimé à tort, et soutenir de nouveaux modèles commerciaux pour des plates-formes qui créent de la valeur sociale – plutôt que simplement extraire la valeur de nous.
Comme l’énonce la note de politique d’ARTICLE 19 Taming Big Tech, la séparation entre l’hébergement de contenu et la curation de contenu et l’ouverture à la concurrence offriraient des avantages innombrables :
- Pour les individus, cela nous donnerait enfin des alternatives concrètes et viables aux systèmes de curation de contenu des plus grandes plates-formes. Nous pourrions sélectionner une entreprise pour faire la curation de notre contenu en fonction de différents critères – par exemple, le degré de protection de notre vie privée ou l’accès à une pluralité de perspectives – des conditions essentielles pour faire des choix éclairés et protéger la démocratie. Et nous n’aurions même pas besoin de quitter la plate-forme : nous pourrions conserver notre profil, nos amis et nos abonnés actuels.
- Pour les petits fournisseurs, cela offrirait un accès plus facile aux utilisateurs et une incitation à se faire concurrence pour fournir une curation de contenu qui serve au mieux les intérêts des utilisateurs – y compris la protection de notre vie privée et de notre discours en ligne.
- Pour la société, cela conduirait à des marchés de réseaux sociaux plus ouverts, plus équitables, diversifiés et décentralisés qui favorisent la libre circulation de l’information – un environnement plus sain pour la liberté d’expression à tous les niveaux.
En d’autres termes, notre solution serait gagnant-gagnant pour les utilisateurs des réseaux sociaux, les fournisseurs plus petits et la société dans son ensemble.
En 2021, Meta – qui possède Facebook, Instagram, Messenger, et WhatsApp – a réalisé des bénéfices de 39,37 milliards de dollars.
C’est plus que les PIB de plus de la moitié des pays du monde – et plus que les PIB combinés des 31 pays les plus pauvres.
Près de 97 % des revenus totaux de Meta proviennent de la publicité, c’est-à-dire de la monétisation de l’attention des utilisateurs et de sa revente.
Nous travaillons pour eux.
Nous travaillons gratuitement.
Et ils gagnent leurs milliards en envahissant notre vie privée, en contrôlant ce que nous pouvons visualiser et dire en ligne, et en amplifiant les conflits, la désinformation et les discours de haine.
Ce n’est pas un hasard : c’est exactement leur modèle commercial
Ils créent sciemment ces problèmes – qui leur sont profitables, mais désastreux pour la société – tout en prétendant rendre le monde meilleur pour nous tous.
Recommandations
Séparer l’hébergement de contenu de la curation de contenu et s’assurer que des acteurs tiers ont accès aux utilisateurs afin de leur proposer des services de curation alternatifs.
Cette séparation (dégroupage) des services devrait être conçue comme une forme de séparation fonctionnelle. En d’autres termes, notre proposition ne signifie pas qu’une grande plate-forme doit liquider la partie curation de contenu de son activité. La grande plate-forme qui fournit l’hébergement doit rester libre elle aussi d’offrir la curation de contenu afin que les utilisateurs puissent librement choisir qui leur fournira ce service. Pour garantir un choix véritable, la sélection de la grande plate-forme doit être présentée à l’utilisateur sous la forme d’un opt-in.
À l’heure actuelle, les plates-formes à la fois hébergent du contenu et procèdent à sa curation à l’aide d’algorithmes. La séparation (ou le « dégroupage ») de ces deux fonctions offrirait aux usagers un plus grand choix quant à l’entreprise qui gère leur fil d’actualité, leur donnant une alternative viable pour avoir un meilleur contrôle de l’information qu’ils visualisent, sans devoir quitter leur plate-forme habituelle. Cela encouragerait également les fournisseurs à rivaliser pour offrir un service qui protège au mieux la vie privée des usagers, représente des perspectives plurielles et renforce ainsi un débat éclairé et améliore les connaissances du public en général. La nouvelle note de politique d’ARTICLE 19 Taming Big Tech aborde ce sujet plus en détail.
Ce dégroupage doit être obligatoire, et il doit être appliqué et contrôlé par des autorités indépendantes. Les grandes plates-formes ne sépareront pas d’elles-mêmes ces deux fonctions à moins qu’elles y soient forcées, car en le faisant elles s’exposeraient à la concurrence.
Nous proposons des recommandations préliminaires sur la manière dont les régulateurs peuvent mettre en œuvre efficacement le dégroupage de l’hébergement et de la curation de contenu dans notre note de politique Taming Big Tech.
La transparence, la responsabilisation et la protection des droits humains doivent constituer les principes fondamentaux de tout cadre réglementaire des plates-formes de réseaux sociaux.
La réglementation devrait inclure des obligations d’améliorer la transparence dans les décisions de modération de contenu, et d’améliorer les systèmes pour résoudre tout litige causé par ces décisions.
Les gouvernements ne devraient pas imposer aux entreprises de réseaux sociaux une obligation générale de surveiller le contenu. Cela conduirait probablement à une censure accrue et à réduire au silence beaucoup trop de voix.
Tout cadre régissant la modération de contenu doit :
- Être strictement limité dans sa portée. Il ne devrait se concentrer que sur les contenus illégaux (et pas sure les contenus « légaux mais nuisibles »), ne devrait pas s’appliquer aux services de messagerie privée ou d’actualité, et devrait être appliqué uniquement dans le pays qui adopte la réglementation.
- Définir clairement les obligations. Celles-ci devraient inclure la transparence et l’obligation de protéger la vie privée et de promouvoir la diversité des médias. Elles ne devraient pas inclure d’objectifs de conformité ou un « devoir de diligence » trop large pour prévenir les « dommages ».
- Être proportionné. Les gouvernements ne devraient pas adopter de mesures qui, bien que destinées à obliger les grandes entreprises de réseaux sociaux à rendre des comptes, imposent en réalité une charge excessive aux plus petits services.
- Donner aux utilisateurs un accès à des recours efficaces. Ceux-ci devraient inclure des mécanismes de plainte internes, l’accès à des recours judiciaires et des mécanismes alternatifs de règlement des différends.
- Maintenir l’immunité conditionnelle de responsabilité des plates-formes pour le contenu de tiers, mais clarifier la portée et les procédures de notification et d’action. La suppression ou la limitation de l’immunité de responsabilité des plates-formes les inciterait à supprimer trop ou trop peu de contenu.
Dompter la Big Tech
Comment lutter contre le pouvoir excessif des géants des réseaux sociaux
Surveiller les gardiens
Comment réglementer la modération de contenu tout en protégeant la liberté d’expression