logiciel rgpd

Facebook : Révélations Choc et Appel à la Régulation

RGPDFebruary 7, 2022

Le géant américain Facebook est dans la tourmente depuis qu’une ancienne salariée a révélé à de nombreux médias dont Le Monde, le Washington Post et le Wall Street Journal, une dizaine de milliers de documents internes et confidentiels. Ces derniers compromettent l’entreprise et révèlent un véritable manque de transparence qui engendre des répercussions dans la société civile.

Ces documents démontrent que l’entreprise intègre dans son algorithme de manière consciencieuse une stratégie qui vise à amplifier la haine, la désinformation et les troubles politiques mais a aussi des effets néfastes sur l’image et la santé mentale des adolescents.

Ces révélations ont créé un véritable cataclysme, dans un contexte où Facebook était déjà la cible de critiques pour son projet de réseau social pour les jeunes de moins de 13 ans. A cela s’ajoute une réflexion menée par les États européens concernant une législation ayant pour objectif de réguler les plateformes numériques.

En lanceuse d’alerte, Frances Hauguen n’est pas passé inaperçue. Elle vit un véritable marathon des instances publiques. Le 5 octobre 2021 elle témoigne devant le Sénat des États-Unis, le 25 octobre devant le Parlement britannique, le 8 novembre devant une commission du Parlement européen, le 10 novembre au Parlement français. Lors de ces auditions, elle utilise des termes forts et accusateurs pour rappeler la responsabilité de Facebook à l’égard de ses utilisateurs.

Facebook choisit chaque jour le profit au détriment de la sécurité et sans action énergique des législateurs cela continuera. Facebook exploite sa capacité à cacher le comportement réel de la plateforme pour permettre notre sécurité à se dégrader à un niveau inacceptable. Si Facebook est autorisé à continuer à fonctionner dans l’obscurité nous verrons que des tragédies croissantes. Par conséquence, j’ai lancé l’alerte au risque de ma vie parce que je crois qu’il est encore temps d’agir mais nous devons agir maintenant.

Frances Haugen.

Un algorithme amplificateur de haine

La modification de l’algorithme de la plateforme en 2017 devait avoir pour but d’assainir ses contenus haineux et de favoriser les contenus des proches utilisateurs mais les résultats ont été contraires. Les publications contenants des émojis génèrent d’important flux chez les utilisateurs.  Facebook a donc systématiquement amplifié la diffusion de ces publications. Par conséquent, divers médias ont radicalisé leurs propos pour gagner en audience et les acteurs de désinformation ont utilisé ces codes pour gagner en influence. 

Nous savons qu’en Allemagne, 65% des personnes ayant rejoint des groupes nazis, les ont rejoints car Facebook les a suggéré.

Les effets pervers de cet algorithme pour la démocratie sont connus, l’invasion du Capitole du 6 janvier 2021 organisé par des mouvements sur la plateforme en est un exemple.

Cette semaine, des ONG représentants les réfugiés Rohingyas ont porté plainte contre Facebook pour un montant de 150 milliards de dollars (132 milliards d’euros).

Les Rohingyas sont une minorité ethnique qui a été victimes d’un génocide en 2017. La plainte affirme que Facebook a eu un rôle majeur dans le conflit inter-ethnique birman, le collectif l’accuse de favoriser la désinformation et des idéologies extrémistes ce qui a engendré des actes violents dans le monde réel.

Le document consulté par l’Agence France-Presse précise : « La réalité indéniable est que la croissance de Facebook, nourrie par la haine, la division et la désinformation, a laissé dans son sillage des centaines de milliers de vies rohingya dévastées ».

Dans son audition au Sénat la lanceuse d’alerte explique, Facebook cible les personnes les plus à risque d’être exposée à la désinformation : veufs, personnes ayant récemment déménagées ou divorcées car elles sont isolées donc susceptible d’être sur le réseau social. Ce sont des personnes happées car elles ont perdu leur réseau social réel.

L’enseigne a trouvé que lorsqu’on segmente les gens en communautés, 4% de la communauté recevait 80% de désinformation ce qui engendrait une hyper exposition de la désinformation. Ainsi, plus les utilisateurs voient une idée plus elle leur semble réelle.

Les propres équipes de Mark Zuckerberg avouent leur incompréhension face à un code informatique qui échappe à leur contrôle, relate Le Monde.

Une modération limitée

Les documents révèlent que les algorithmes étaient plus particulièrement biaisés dans les endroits où le public est le plus vulnérable (zone de guerre telle que le Moyen-Orient).

L’entreprise ne communique aucun chiffre sur le nombre de modérateurs existants et n’engage pas les moyens nécessaires pour recruter des modérateurs maîtrisants les divers dialectes des localités.

L’accent est mis sur le manque de rigueur du programme de modération XCHECK qui concerne 5,8 millions d’utilisateurs à travers le monde, dont des célébrités et des responsables politique. Il existe un traitement différencié appliqué à ces utilisateurs considérés comme des VIP, leurs publications ne sont pas soumises aux mêmes algorithmes automatiques qui suppriment tout contenues problématiques sans intervention humaine.

« Cela signifie que, pour certains membres particuliers de notre communauté, nous n’appliquons pas nos politiques et notre règlement. Contrairement au reste de notre communauté, ces personnes peuvent violer nos règles sans aucune conséquence. »

Salarié Facebook lors d’une réunion interne

Des effets néfastes chez les jeunes

L’entreprise avait déjà été épinglé par des études de la Royal Society Public Heath en 2017 sur ses effets spécifiques chez les jeunes notamment en matière d’estime de soi. Elle a dû se justifier auprès du congrès américain. Une diapo diffusée lors d’une réunion interne à Instagram en 2019 annonçait « Nous empirons le rapport à son corps d’une ado sur trois ».

Le bilan mené par des chercheurs de Facebook a été conclu par de nombreuses mesures pour améliorer les effets pervers de la plateforme. Des recommandations ont été proposés comme faire en sorte que l’algorithme propose en priorité des publications des amis et des proches plutôt que des publications sur la beauté. Ces dernières ont été ignorées par la hiérarchie, un responsable déclare « Les gens utilisent Instagram parce que c’est une compétition. C’est ça qui est amusant ».

Devant le parlement européen elle déclare : « Facebook ne peut pas continuer à être juge, jury, procureur et témoin ».

Facebook a promis d’étudier ces points mais ces révélations sont déterminantes pour son histoire.

Est-ce le moment de penser Facebook comme un prestataire public pour mieux le réguler ?

En Europe, un nouveau projet est en débat : le Digital Act Services qui prévoit de fixer des obligations aux entreprises de la tech. Ces entreprises seraient tenues de respecter des règles de transparence et de coopérer avec les autorités nationales de régulation. Les plus grandes seraient obligées de partager des données avec des régulateurs.

De nouvelles questions émergent :

  • Est-ce que les algorithmes peuvent être conçus de manière responsable ?

  • Le modèle économique peut-il continuer si on interdisait la publicité ciblée ?

  • Le RGPD a-t-il vraiment un impact sur la manière de traiter les données ?

L’exemple de Facebook est un véritable cas d’école, son manque de transparence pose de nombreuses problématiques. Au troisième trimestre 2021, Facebook compte 2,91 milliards d’utilisateurs actifs par mois et les régulateurs disposent de très maigres informations sur la manière à laquelle le géant gère les problèmes qu’il identifie.

Frances Haugen le rappelle, chaque plateforme devrait rendre des comptes sur les risques et faire des analyses de produits. Il existe beaucoup d’entreprises qui ont géré leurs manières de stocker les données grâce au RGPD mais cela a un coût. Or Facebook peut maintenir sa rentabilité et dispose de suffisamment d’options pour faire de l’argent autrement.

Ces solutions concrètes ont été entendues et ne laissent pas indifférents les instances publiques.


Bon à savoir

Saviez-vous que Witik propose une module « Lanceur d’alerte » ?

Comment cela fonctionne-t-il ? Rien de plus simple ! Le demandeur signale l’alerte via un canal chiffré anonyme. La demande est automatiquement attribuée au référent et un canal de communication chiffré est ouvert entre les demandeurs et la personne qui lance l’alerte.

Ça m'intéresse !

La plateforme 100% made in France qui vous permet de simplifier, accélérer et pérenniser vos différents programmes de conformité.

Vous souhaitez rester au courant des dernières actualités ? Abonnez-vous à la newsletter !

Nous (Witik) collectons et traitons vos données conformément à notre Politique de protection des données.