Planetemuscle

Musculation et Bodybuilding old school baby !
Nous sommes le Jeu 15 Nov 2018 14:05:05

Heures au format UTC


Retour aux pages du site hors forum
 le site de xpn France  Les livres de gundill et delavier


Poster un nouveau sujet Répondre au sujet  [ 1 message ] 
Auteur Message
 Sujet du message: Lutte à l'intérieur de Facebook pour modérer 2 000 000 000
Message non luPosté: Dim 26 Aoû 2018 19:19:31 
Hors ligne
Avatar de l’utilisateur

Inscription: Lun 10 Nov 2003 17:06:12
Messages: 26357
Localisation: Montpellier/Paris
Taille: 180
Poids: 105
Club: Fitness Park / Studio de coaching Villa Sur Toit
federation: Je soutiens les athlètes
Sports: Bodybuilding,
Sport de combat
Travail sur stade 4000 m , 400 m , 200 m, 100 m
Traduction Google Translation, Article conseillé par Pierre Chappaz


"Si vous voulez savoir pourquoi Facebook censure certains contenus et pas d'autres, voici l'article le plus complet jamais publié sur le sujet. Attention il y a de quoi attraper un gros mal de tête, préparez l'aspirine!"



Le travail impossible: la lutte à l'intérieur de Facebook pour modérer deux milliards de personnes
La modération de milliards de messages par semaine dans plus de cent langues est devenue le plus grand défi de Facebook. Des fuites de documents et près de deux douzaines d'entretiens montrent comment l'entreprise espère le résoudre.


Ce printemps, Facebook a invité quelques dizaines d’éminents universitaires du secteur des médias sociaux avec une invitation: aimeraient-ils avoir un dîner décontracté avec Mark Zuckerberg pour discuter des problèmes de Facebook?

Selon cinq personnes qui ont assisté à la série de dîners à la maison de Zuckerberg à Palo Alto, en Californie, la conversation a porté essentiellement sur le problème le plus important auquel est confrontée l’entreprise: la modération du contenu.


Ces derniers mois, Facebook a été attaqué de toutes parts: par les conservateurs pour ce qu'ils perçoivent comme un parti pris libéral, par les libéraux pour avoir permis au nationalisme blanc et au négationnisme sur la plate-forme, par les gouvernements et les agences de presse et par les organisations de défense des droits de l'homme pour leur utilisation en tant que plate-forme pour faciliter le harcèlement fondé sur le sexe et le suicide et le meurtre en direct. Facebook a même été blâmé pour sa contribution au génocide.

Ces situations ont été en grande partie définies comme des incendies de relations publiques individuels que Facebook a tenté d’établir un à la fois. Mais le besoin de modération du contenu est mieux considéré comme un problème systémique dans le modèle économique de Facebook. Zuckerberg a déclaré qu'il souhaitait que Facebook soit une communauté mondiale, un idéal radical compte tenu de la grande diversité des communautés et des mœurs culturelles du monde entier. Facebook estime que la modération de contenu hautement nuancée peut résoudre cette tension, mais il s'agit d'un problème logistique d'une complexité insoupçonnée, sans solution évidente, qui menace fondamentalement les activités de Facebook.

Les dîners ont démontré un engagement de Zuckerberg à résoudre les problèmes difficiles que Facebook a créés pour lui-même à travers sa quête incessante de croissance. Mais plusieurs personnes qui ont assisté aux dîners ont déclaré qu’ils pensaient qu’ils commençaient la conversation sur des bases fondamentalement différentes: Zuckerberg pense que les problèmes de Facebook peuvent être résolus. Beaucoup d'experts ne le font pas.


*


Des panneaux accrochés au mur du siège social de Facebook à Menlo Park, en Californie. Image: Jason Koebler
La promesse précoce et utopique d’Internet se présentait sous la forme d’un réseau décentralisé qui relierait les gens sous des centaines de millions de sites Web et de communautés, chacun chargé de créer ses propres règles. Mais comme Internet a évolué, il est devenu de plus en plus corporatisé, avec des sociétés comme Facebook, YouTube, Instagram, Reddit, Tumblr et Twitter remplaçant les sites Web et les forums appartenant à des milliards de personnes dans le monde.

En raison de la taille et de l’influence accrues de ces plates-formes, ils ont chargé les modérateurs de contrôler leurs sites Web pour supprimer les contenus illicites tels que la pornographie juvénile.

«La raison fondamentale de la modération de contenu - sa raison d’être - réside simplement dans le problème de la protection de la marque et de la réduction de la responsabilité de la plate-forme», a déclaré Sarah T. Roberts, professeur adjointe à UCLA. "En fin de compte et fondamentalement au service des plates-formes elles-mêmes. Il s'agit des mécanismes de contrôle utilisés par les plates-formes pour contrôler la nature du contenu généré par l'utilisateur qui circule sur leurs espaces de marque. "

Pour comprendre pourquoi Facebook, Twitter, YouTube et Reddit ont des règles, cela vaut la peine de penser que ces clones, devenus de plus en plus stricts, se sont développés avec peu ou pas de règles. généralement perçus comme des fosses remplies de rhétorique haineuse et grouillant de nazis.

Et donc il y a des règles.

Twitter a «les règles de Twitter», Reddit a une «politique de contenu», YouTube a des «règles de la communauté» et Facebook a des « normes de communauté ». Des centaines de règles sur Facebook, toutes relevant de différentes règles, et la plupart ont des exceptions et des zones grises. Celles-ci incluent, par exemple, les politiques relatives au discours de haine, à la violence ciblée, à l'intimidation et à la pornographie, ainsi que les règles contre le spam, les "fausses nouvelles" et la violation du droit d'auteur.

Bien que la diffusion de fausses nouvelles et la désinformation coordonnée sur Facebook aient eu beaucoup d’attention, le problème peut-être plus difficile - et c’est celui de la conception de la plate-forme - est de modérer le discours des utilisateurs qui n’essaient pas jouer le rôle de plate-forme ou saper la démocratie, mais l’utiliser simplement au quotidien de manière à nuire potentiellement aux autres.


Image: Bloomberg via Getty Images
Facebook dispose d'une "équipe politique" composée d'avocats, de professionnels des relations publiques, d'anciens responsables des politiques publiques et d'experts en gestion de crise qui élaborent les règles. Selon la société, ils sont exécutés par environ 7 500 modérateurs humains. Dans le cas de Facebook, les modérateurs agissent (ou décident de ne pas agir) sur des contenus qui sont révélés par l'intelligence artificielle ou par des utilisateurs qui signalent des messages qui, selon eux, violent les règles. L'intelligence artificielle est très efficace pour identifier les pornos, les spams et les faux comptes, mais elle n'est toujours pas très efficace pour identifier les discours de haine.

L'équipe politique est soutenue par d'autres personnes sur le campus tentaculaire de la ville de Facebook à Menlo Park, en Californie. (Des renards sauvages ont été repérés dans les jardins sur les toits de certains nouveaux bâtiments de Facebook, bien que nous n'en ayons malheureusement pas vu lors de notre visite.) Une équipe répond spécifiquement aux crises de modération du contenu. Un autre écrit des outils logiciels de modération et de l'intelligence artificielle. Un autre essaie de garantir la précision et la cohérence à travers le monde. Enfin, une équipe s'assure que toutes les autres équipes travaillent ensemble correctement.


"Si vous dites:" Pourquoi ne dit-il pas utiliser votre jugement? " Nous avons testé cela. "

Comment réussir à modérer le contenu généré par l'utilisateur est l'un des problèmes logistiques les plus complexes et les plus complexes en termes de travail que Facebook ait jamais tenté de résoudre. Ses deux milliards d'utilisateurs font des milliards de publications par jour dans plus d'une centaine de langues, et les modérateurs de contenu humain de Facebook sont invités à examiner plus de 10 millions d'articles potentiellement dangereux par semaine. Facebook a pour objectif de le faire avec un taux d'erreur inférieur à 1% et cherche à examiner tous les contenus rapportés par l'utilisateur dans les 24 heures.

Facebook continue à produire des dizaines de milliers d'erreurs de modération par jour, basées sur ses propres cibles. Et tandis que les modérateurs de Facebook appliquent correctement les règles de l'entreprise, la grande majorité du temps, les utilisateurs, les politiciens et les gouvernements sont rarement d'accord sur les règles. Selon les experts, le problème est que l’audience de Facebook est maintenant si vaste et si diversifiée qu’il est pratiquement impossible de gérer toutes les interactions possibles sur le site.

"C'est la différence entre 100 millions de personnes et quelques milliards de personnes sur votre plate-forme" , a déclaré à la carte mère Kate Klonick, professeure adjointe à la faculté de droit de l'Université de St. John's et auteure d'une vaste revue juridique des pratiques de modération . "Si vous modérez des messages 40 millions de fois par jour, la probabilité que l'une de ces mauvaises décisions vous explose est beaucoup plus élevée."


Un espace commun au siège de Facebook où Zuckerberg organise parfois des sessions de questions / réponses. Image: Jason Koebler
Chaque entreprise de médias sociaux a eu des problèmes de modération de contenu, mais Facebook et YouTube sont les seules à opérer à une si grande échelle, et les universitaires qui étudient la modération disent que plates-formes.

Danielle Citron, auteur de crimes motivés par la haine dans le cyberespace et professeur à l'Université de la faculté de droit du Maryland, a dit mère que l'instant « oh fleur » Facebook est venu en 2013, après un groupe appelé Femmes, Action, et les médias ont réussi à pousser les annonceurs à cesser de travailler avec Facebook car il autorisait les blagues sur les viols et les mèmes sur son site.


"Depuis, cela devient incroyablement complexe", a-t-elle déclaré. "La seule chose qui sauve, c’est qu’ils ont des personnes réfléchies qui travaillent sur un problème très difficile."

La solution de Facebook à ce problème est extrêmement importante pour l'avenir de la libre expression mondiale, et pourtant, les décisions politiques, l'infrastructure technique et humaine et les décisions relatives au contenu individuel sont largement invisibles pour les utilisateurs. En juin, le rapporteur spécial du Haut-Commissariat des Nations Unies aux droits de l'homme a publié un rapport appelant à une "transparence radicale" dans la manière dont les entreprises de médias sociaux appliquent et appliquent leurs règles. Beaucoup d'utilisateurs aimeraient la même chose.

Motherboard a passé les derniers mois à examiner tous les aspects de l’appareil de modération de contenu de Facebook, de la manière dont les règles sont créées à la manière dont elles sont appliquées et affinées. Nous avons parlé aux architectes actuels et passés de ces politiques, parcouru des centaines de pages de documents de formation sur la modération de contenu et de courriels internes divulgués, parlé à des modérateurs Facebook expérimentés et visité le siège de la Silicon Valley de Facebook. niveau des employés et avoir un aperçu de la façon dont Facebook fabrique et applique les règles d'une plate-forme qui, pour beaucoup de gens, est Internet lui-même.

Les problèmes constants de modération de contenu que connaît Facebook se présentent sous de nombreuses formes: il y a des défaillances de la politique, des échecs de la messagerie et des erreurs dans la prédiction des pulsions les plus sombres de la nature humaine. Des compromis sont faits pour s'adapter au modèle économique de Facebook. Il y a des lacunes technologiques, des erreurs honnêtes qui sont sans cesse amplifiées et jamais oubliées, et il y a aussi des attaques de mauvaise foi de politiciens sensationnalistes et de médias partisans.

Alors que la gauche et la droite ne sont pas d'accord sur ce qui devrait être autorisé sur Facebook, beaucoup de gens pensent que Facebook ne fait pas du bon travail. Conservateurs comme sénateur du Texas Ted Cruz accuse Facebook de parti pris, il utilise toujours le fait que Facebook supprimé par erreur un Chick-fil-une page d'appréciation en 2012 comme pièce A dans son argument alors que les libéraux étaient horrifiés de Zuckerberg la défense de permettre le négationnisme sur la plate-forme et la lenteur de l'entreprise à interdire les InfoWars.

Zuckerberg a été à plusieurs reprises grillé par les médias et le Congrès au sujet de la modération des contenus, des fausses informations et des campagnes de désinformation. Cette attention constante a amené le directeur des opérations de Zuckerberg et Facebook, Sheryl Sandberg, à s'impliquer davantage. Neil Potts, responsable de la réponse stratégique de Facebook, a déclaré à la carte mère que les deux dirigeants avaient pris la parole. Facebook a refusé de donner des exemples précis de contenu sur lequel il pesait, mais le New York Times a rapporté que Zuckerberg avait été impliqué dans la récente décision d'interdire l'InfoWars.


Sheryl Sandberg. Image: Shutterstock
Sandberg a demandé à recevoir des informations hebdomadaires sur les principaux problèmes de modération du contenu de la plateforme. Cette année, elle a organisé une réunion hebdomadaire au cours de laquelle les chefs d'équipe se sont réunis pour discuter des meilleures façons de gérer les escalades liées au contenu. Les participants à cette réunion décident également de ce qu’il faut signaler à Zuckerberg lui-même. Sandberg a formé une équipe plus tôt cette année pour répondre aux problèmes de modération de contenu en temps réel afin de les présenter au PDG.

Zuckerberg et Sandberg "s'engagent de manière très concrète pour s'assurer que nous arrivons à un résultat correct et que, pour des décisions encore plus difficiles, nous les apportons à Sheryl", a déclaré Potts.


Facebook a déclaré à la carte mère que l’année dernière, Sandberg avait exhorté la société à étendre ses politiques en matière de discours de haine, ce qui a entraîné une série de groupes de travail qui se sont déroulés sur six à huit mois.

Sandberg a supervisé les équipes en charge de la modération du contenu pendant des années, selon d'anciens employés de Facebook qui ont travaillé au sein de l'équipe chargée de la politique de contenu. Zuckerberg et Sandberg ont tous deux refusé d'être interviewés pour cet article.

"Sheryl était la plus haute autorité de la cour pendant tout le temps que j’y étais", a déclaré un ancien employé de Facebook à la carte mère. "Elle vérifiait de temps en temps, et elle était habilitée à diriger cette partie du navire. Le but était de ne pas aller la voir car elle a du mal à faire. "

CALMER LA CRISE CONSTANTE

Les normes communautaires de Facebook, publiées au public en avril , résultent en grande partie de la réponse à des milliers de crises sur une décennie et ont ensuite été codifiées pour devenir des règles applicables à des situations similaires dans le futur.

Les discours de haine de contenu les plus difficiles et les plus sensibles au facteur temps qui tombent dans les zones grises des politiques établies de Facebook, les opportunistes qui surgissent à la suite de fusillades ou les contenus que demandent les médias - sont "escaladés" en équipe appelé Risk and Response, qui travaille avec les équipes de politique et de communication pour passer des appels difficiles.

Au cours des derniers mois, par exemple, de nombreuses femmes ont commencé à partager des histoires d'abus sexuel, de harcèlement et d'agression sur Facebook qui enfreignent techniquement les règles de Facebook, mais que les responsables de la politique estiment importantes. Ainsi, Risk and Response peut appeler à quitter ou à supprimer un message spécifique, puis l'équipe de stratégie de Facebook essaiera d'écrire de nouvelles règles ou de modifier les règles existantes pour que la mise en application soit uniforme à tous les niveaux.


"Avec le mouvement MeToo, vous avez beaucoup de gens qui, d'une certaine manière, font fuir d'autres personnes ou d'autres hommes", a déclaré James Mitchell, le chef de l'équipe Risk and Response. "Comment pouvons-nous concilier cela avec les politiques d'intimidation que nous avons pour nous assurer que nous allons prendre les bonnes mesures et quelle est la bonne action?"


Un tableau noir à l'intérieur du siège de Facebook qui parle de la construction d'une communauté. Image: Jason Koebler
Ces sortes de décisions et de conversations ont eu lieu tous les jours pendant une décennie. Le contenu est susceptible d'être "escaladé" lorsqu'il s'agit d'un événement de dernière heure, par exemple à la suite d'une attaque terroriste, ou lorsqu'il est question d'un journaliste, d'un gouvernement ou d'un politicien. Bien que Facebook reconnaisse que les médias découvrent des contenus qui ne respectent pas les règles, ce qui n'est pas le cas de ses propres systèmes, il ne pense pas que les journalistes soient devenus des modérateurs de facto sur Facebook. Facebook a déclaré que de nombreux journalistes ont commencé à demander des commentaires sur des éléments de contenu spécifiques sans partager de liens avant la publication de leurs articles. La société a qualifié cette évolution de malheureuse et a déclaré qu’elle ne souhaitait pas transférer le fardeau de la modération à d’autres, mais a ajouté qu’elle pensait qu’elle serait bénéfique pour tout le monde si elle éliminait le plus rapidement possible les contenus non conformes.

Les postes qui tombent dans des zones grises sont également intensifiés par les modérateurs eux-mêmes, qui déplacent les choses dans la chaîne jusqu’à ce qu’elles atteignent éventuellement l’équipe Risk and Response.

"Il y avait essentiellement ce document Word avec" Hitler est mauvais et ne porte pas de pantalon "."


Ces décisions sont prises avec des allers-retours sur les fils de courriels ou les réunions effectuées au siège de Facebook et dans ses bureaux à travers le monde. Lorsqu'il n'y a pas de politique spécifique codifiée, cette équipe prendra parfois des décisions «conformes à la politique» qui correspondent aux autres décisions prises par l'entreprise. Parfois, Facebook lancera des «verrouillages» dans lesquels toutes les réunions seront abandonnées pour se concentrer sur un problème de modération de contenu urgent, parfois pendant des semaines.

"Lockdown peut être, au cours des deux prochaines semaines, toutes vos réunions seront sur ce point, et si vous avez d'autres réunions, vous pouvez les comprendre aux petites heures du matin," Potts, qui coordonne la réponse de crise entre l'équipe de Mitchell et d'autres parties de l'entreprise, a déclaré. "Je pense qu’une chose nous aide à résoudre certains de ces problèmes avant qu’ils ne deviennent des crises à part entière".

Potts a déclaré qu'une vague de vidéos sur le suicide et l'automutilation postée peu après le lancement de Facebook Live a déclenché un blocage de trois mois entre avril et juin 2017, par exemple. Pendant ce temps, Facebook a créé des outils permettant aux modérateurs de voir les commentaires des utilisateurs sur la vidéo en direct, une vitesse de lecture avancée et une fonctionnalité de relecture, un horodatage du contenu utilisateur, des transcriptions de texte en direct et Les réactions des utilisateurs qui montrent les temps dans les vidéos que les téléspectateurs utilisent.

"Nous avons vu juste une série de blessures auto-infligées, des vidéos d'automutilation sont en ligne", a-t-il déclaré. "Et nous avons vraiment reconnu que nous n’avions pas mis en place un processus réactif capable de les gérer, le volume. Maintenant, nous avons construit des outils automatisés pour nous aider à mieux accomplir cela. "


Premier campus de Facebook, vu du toit de son nouveau campus. Image: Jason Koebler
Comme vous pouvez l'imaginer, la création de politiques ad hoc n'est pas particulièrement durable. Ainsi, Facebook a essayé de devenir plus proactif avec ses réunions deux fois par mois sur le "Content Standards Forum", où de nouvelles politiques et des modifications aux politiques existantes sont développées, mises au point et finalement adoptées.

"Les gens supposent qu'ils ont toujours eu une sorte de plan contre, beaucoup de comment ces règles développées sont de mettre des feux et une réponse rapide de PR à de terribles catastrophes de RP comme ils se sont produits", a déclaré Klonick. "Il n'y a pas eu un moment où ils ont eu l'occasion d'être philosophiques à ce sujet, et les règles reflètent vraiment cela."

Ces réunions sont une tentative d’atténuer l’état de crise constant en discutant des problèmes spécifiques et permanents qui se sont fait jour sur la plate-forme et en prenant des décisions politiques à leur sujet. En juin, Motherboard a participé à l’une de ces réunions, ce qui est remarquable étant donné que Facebook n’a généralement pas été très direct quant à la manière dont il décide des règles que ses modérateurs sont invités à appliquer.

La carte mère a accepté de conserver les décisions de contenu spécifiques prises lors de la réunion à laquelle nous avons assisté, car elles ne constituent pas encore une politique officielle, mais les contours du fonctionnement de la réunion peuvent être rapportés. Des équipes de 11 bureaux du monde entier se connectent via un chat vidéo ou dans la salle. Lors des réunions, un «groupe de travail» spécifique composé de certains experts politiques de Facebook présentera un «heads-up», qui est un changement de politique proposé. Ces règles spécifiques sont mises en œuvre au fil des semaines ou des mois, et Facebook consulte généralement les groupes à but non lucratif, les universitaires et les groupes de défense avant de décider d'une politique finale.

"Je ne peux penser à aucune situation dans laquelle un groupe externe aurait réellement traité la rédaction d'une politique", a déclaré Peter Stern, qui gère les relations de Facebook avec ces groupes. "C'est notre travail."

Lors d'une réunion où la carte mère ne s'est pas présentée mais a été décrite par Monika Bickert, responsable de la politique globale de Facebook et par la personne qui a démarré ces réunions, un employé a expliqué comment gérer les admissions alimentaires non explicites affichées par exemple. Un heads-up peut provenir de l'une des équipes de Facebook ou provenir d'un partenaire externe.


Malgré toutes les critiques que Facebook porte à la modération de son contenu, les personnes qui travaillent chaque jour sur les politiques insistent clairement sur les détails à obtenir, et l'entreprise a connu quelques succès. Par exemple, sa politique de vengeance et son outil logiciel récemment créé - qui demande aux utilisateurs de télécharger par anticipation des photos nues d'eux-mêmes pour les empêcher de télécharger cette photo à l'avenir - ont été largement bafoués. Mais les groupes qui luttent contre la vengeance porno disent que bloquer de manière préventive ces photos est bien mieux que de les supprimer après coup, et certains experts en sécurité estiment que le système conçu par la société est sûr.

Facebook affirme que ses outils d’IA, dont beaucoup sont formés avec les données de son équipe de modération humaine, détectent près de 100% des spams et que 99,5% des déménagements liés au terrorisme, 98,5% des faux comptes, 96% de la nudité et des activités sexuelles des adultes , et 86% des enlèvements liés à la violence graphique sont détectés par l'IA, et non par les utilisateurs.

Selon les statistiques de Facebook, pour chaque instance de la société qui supprime (ou abandonne) par erreur quelque chose qu'elle ne devrait pas, il y a plus d'une centaine de messages endommagés qui ont été correctement modérés et qui sont invisibles pour l'utilisateur.

Alors que l'AI de Facebook a très bien réussi à identifier le spam et la nudité, la nuance du langage humain, les contextes culturels et les désaccords généralisés sur ce qui constitue le «discours de haine» en font un problème beaucoup plus difficile. L'IA de Facebook ne détecte que 38% des messages de discours haineux qu'il supprime, et pour le moment, il ne dispose pas de suffisamment de données de formation pour que l'IA soit très efficace en dehors de l'anglais et du portugais.

Au fil des ans, Facebook s'est nettement amélioré en matière de modération, mais il n'y a tout simplement pas de solution parfaite, à l'exception de l'élimination du contenu généré par les utilisateurs, ce qui signifierait probablement la fermeture de Facebook.

"La réponse vraiment facile est l'indignation, et cette réaction est tellement inutile", a déclaré Klonick. "L’autre chose facile est de créer un récit corporatif maléfique, et ce n’est pas juste. Je ne les lâche pas, mais ce sont des problèmes épineux et je pense que parfois ils ne sont pas assez crédibles pour la difficulté de ces problèmes. "

RÉSOUDRE LA NATURE HUMAINE

Ce qui rend le problème de Facebook si difficile est sa taille gigantesque. Il ne suffit pas de décider "où est la ligne" pour le contenu, il doit clairement communiquer la ligne aux modérateurs du monde entier et défendre cette ligne à ses deux milliards d'utilisateurs. Et sans que ces utilisateurs créent du contenu pour garder Facebook intéressant, il mourrait.

La taille est la seule chose que Facebook ne veut pas abandonner. Ainsi, l'équipe de modération de contenu de Facebook s'est vu confier une tâche de Sisyphe: corriger le gâchis créé par la vision du monde et le modèle économique de Facebook, sans modifier la vision du monde ou le modèle commercial lui-même.

"Faire du stock-and-trade pour solliciter non divulgués, dieu-sait-quel contenu de littéralement n'importe qui sur la planète, avec des ordres du jour, des objectifs idéologiques, des objectifs politiques et essayer de rendre ce durable façon, "Roberts, le professeur UCLA, a déclaré à la carte mère. "Ce qu'ils essaient de faire, c'est de résoudre fondamentalement la nature humaine."


En ce sens, les politiques de modération de contenu de Facebook ont ​​été et ont toujours été guidées par un sentiment de pragmatisme. L'examen et la classification du discours de milliards de personnes sont considérés en interne comme un problème de logistique qui n'est viable que s'il est rationalisé et normalisé à travers le monde.


Un organigramme interne Facebook a été créé pour expliquer comment les discours de haine concernant les migrants devraient être traités.
Facebook a décidé il y a dix ans que les règles données aux modérateurs devaient être objectives le plus souvent possible. Ce qui est "objectif", bien sûr, est au cœur du débat sur le contrôle du contenu de Facebook. Comme l'a appris Motherboard, l'objectif de Facebook en matière de modération objective est de disposer d'un ensemble de règles couvrant chaque expression ou expression humaine imaginable sur le site afin d'éliminer le risque d'erreur des modérateurs. Cela signifie que le contenu doit pouvoir suivre une série de questions à oui ou non ou à choix multiple; les réponses à ces questions détermineront si un poste est supprimé ou non.

"L’une des manières d’éliminer les préjugés est de dire que nous ne demandons pas aux examinateurs de déterminer si quelque chose est odieux ou non. un critique à Dublin ", a déclaré Bickert, qui dirige l'équipe de la politique, à la carte mère. "Au lieu de cela, nous disons:" Voici les critères objectifs, s’il répond à ce critère, et coche ces cases, enlevez-le. " C'est comme ça que nous parvenons à la cohérence. "

Une approche descendante qui tente d'éliminer le jugement humain de la part des modérateurs est un modèle très différent de celui utilisé par d'innombrables forums Internet et prédécesseurs de Facebook, dans lesquels les administrateurs ou les cadres prennent des positions éthiques propre jugement sur les détails. En 2009, par exemple, MySpace a banni les contenus qui niaient l'Holocauste et laissait à ses modérateurs une grande latitude pour les supprimer, notant qu'il s'agissait d'un appel "facile" dans le cadre de ses politiques de discours haineux, interdisant de les "sentir mal".


En revanche, la mission de Facebook l'a conduit à essayer de connecter le monde entier, ce qui, à son avis, nécessite d'autoriser autant de discours que possible dans l'espoir d'encourager la conversation et la coopération à l'échelle mondiale. Dans une lettre ouverte aux utilisateurs de Facebook l’année dernière, Zuckerberg a écrit qu’il considérait Facebook comme un modèle d’interaction humaine à l’échelle mondiale et envisage que Facebook évolue vers une politique de modération de contenu "démocratique" pouvant servir de modèle à la "décision collective". la fabrication peut fonctionner dans d'autres aspects de la communauté mondiale. "

"Facebook est synonyme de rapprochement et de construction d’une communauté mondiale. Lorsque nous avons commencé, cette idée n'était pas controversée ", a-t-il écrit. "J'espère que davantage d'entre nous engageront notre énergie dans la construction de l'infrastructure sociale à long terme pour rassembler l'humanité."

Cette lettre, qui a été présentée à Motherboard par plusieurs employés de Facebook comme document de base pour l’avenir de la modération de contenu sur la plate-forme, explique que la philosophie de la société pour les normes communautaires est de refléter les normes culturelles de notre communauté. En cas de doute, nous favorisons toujours donner aux gens le pouvoir de partager davantage. "

Zuckerberg a clairement indiqué dans sa lettre qu'il souhaitait que Facebook adopte des directives de modération plus nuancées et spécifiques à la culture et au pays, mais ne croit pas que la technologie soit encore prête pour cela. Sa solution ultime pour la modération de contenu, écrit-il, est un avenir dans lequel des personnes de différents pays, explicitement ou par leur activité sur le site, expliquent les types de contenu qu’elles veulent voir. L’intelligence artificielle de Facebook des choses qui font appel à leur sensibilité. Il décrit cela comme un "processus démocratique à grande échelle visant à définir des normes avec l'IA pour les appliquer".


"L'idée est de donner à tous les membres de la communauté des options sur la manière dont ils souhaitent définir la politique de contenu pour eux-mêmes. Où est ta ligne sur la nudité? Sur la violence? Sur le contenu graphique? Sur les blasphèmes? Ce que vous déciderez sera vos paramètres personnels », a-t-il écrit. "Pour ceux qui ne prennent pas de décision, le défaut sera le choix de la majorité des personnes de votre région, comme un référendum."

"Le contenu ne sera supprimé que s'il est plus répréhensible que ne le permettent les options les plus permissives", a-t-il ajouté. "Nous nous engageons à toujours faire mieux, même si cela implique la création d'un système de vote mondial pour vous donner plus de voix et de contrôle."

Ce système, cependant, est encore loin. Il est également très éloigné de la façon dont Facebook a modéré le contenu dans son passé, et comment il modère le contenu aujourd'hui. Facebook a commencé à utiliser l'intelligence artificielle dans certains pays pour avertir les modérateurs de la possibilité de violation du contenu, mais il est toujours et restera dans un avenir prévisible un processus hautement réglementé et exigeant en main-d'œuvre.

Dans les premiers jours de Facebook, il a essayé de dire aux modérateurs de simplement «supprimer les contenus haineux», mais cela est vite devenu insoutenable, selon Dave Willner, premier responsable de la politique de contenu chez Facebook. Willner a joué un rôle déterminant dans la rédaction des premières politiques de modération de contenu de Facebook, dont beaucoup n’ont été que légèrement modifiées au cours des années qui ont suivi leur rédaction.


"A l’origine, c’était ce type qui s'appelait Karthi qui regardait tout le porno, mais même dès le début, les équipes de modération étaient assez sérieuses", a déclaré Willner à Motherboard. "C’était un site universitaire, et les inquiétudes étaient en grande partie à l’abri des photos, plus du spam et du phishing. Lorsque je me suis joint à l'équipe de modération, il y avait une seule page d'interdictions et il a été dit que décoller tout ce qui vous mettait mal à l'aise. Il y avait essentiellement ce document Word avec «Hitler est mauvais et ne porte pas de pantalon».

En 2009, Facebook ne comptait que 12 personnes modérant plus de 120 millions d'utilisateurs dans le monde. Alors que Facebook a explosé dans les pays que les employés de l'entreprise connaissaient peu, il s'est rendu compte qu'il devait officialiser ses règles, élargir son effectif de modération et passer des appels difficiles. Cela est devenu clair en juin 2009, lorsqu'une organisation paramilitaire en Iran a tué le manifestant Neda Agha-Soltan , et une vidéo de l'assassinat est devenue virale sur Facebook. La société a décidé de la laisser sur la plate-forme.

"Si nous voulons que les gens partagent et rendent le monde plus connecté, c'est ce qui compte", a déclaré Willner, responsable de la politique de contenu de Facebook entre 2010 et 2013. "Ce fut un moment qui s'est cristallisé:" Ceci est le site. " Ce n’est pas «j’ai eu des œufs aujourd’hui», c’est le truc difficile. »

Comme Facebook a explosé à l'international, il s'est trouvé soudain confronté à des situations géopolitiques, à des contextes et à des histoires complexes, et a dû prendre des décisions sur ce qu'il autoriserait ou ne permettrait pas sur le site.


"Si vous dites:" Pourquoi ne dit-il pas utiliser votre jugement? " Nous avons testé A / B », a déclaré Willner. "Si vous prenez deux modérateurs et comparez leurs réponses en double aveugle, ils ne sont pas beaucoup d'accord. Si vous ne pouvez pas assurer la cohérence, Facebook n'a pas de politique fonctionnelle. "

"Nous voulons avoir un ensemble unique de politiques afin que les gens puissent interagir au-delà des frontières"

Selon plusieurs anciens anciens employés de Facebook, les discussions au sein de la société à l'époque visaient à déterminer et à protéger l'idéologie, la mission et l'ethos de Facebook plutôt que de prendre des positions spécifiques sur le discours de haine, le harcèlement ou la violence. Motherboard a accordé à ces anciens employés l’anonymat car ils s’inquiétaient des répercussions professionnelles.

"Facebook aurait tendance à adopter une approche beaucoup plus philosophique / rationnelle de ce type de questions, moins humaniste / émotionnelle", a déclaré un ancien employé à la carte mère. «L’esprit d’ingénierie avait tendance à prévaloir, à s’éloigner des sentiments forts à propos de cas particuliers, à essayer de trouver des solutions générales, abstraites et systémiques. Bien sûr, les employés sont tous des personnes. Mais le fait est que l'entreprise essaie de résoudre les problèmes à l'échelle du système. "

Beaucoup de ces solutions étaient simplement pratiques: si Facebook devait s'étendre à des endroits où l'anglais n'était pas la langue dominante, il faudrait embaucher des modérateurs parlant la langue locale. Facebook estime que les règles globales qui sautent les frontières sont non seulement plus faciles à envoyer à ses utilisateurs et à appliquer, mais elles se considèrent également, selon leurs règles publiques, comme une "communauté qui transcende les régions, les cultures et les langues".


Facebook comprend qu'il existe des nuances culturelles et historiques dans différents pays, mais considère toujours fondamentalement que l'Internet et lui-même constituent une plate-forme sans frontières.

"Nous voulons avoir un ensemble de politiques globales pour que les gens puissent interagir au-delà des frontières. Une partie de la magie de cette communauté en ligne est qu’elle est très internationale », a déclaré Bickert. "Nous savons que tout le monde, dans tous les pays du monde, ou dans toutes les cultures du monde, ne sera pas d’accord avec toutes les lignes que nous avons tracées. Nous pouvons donc avant tout écouter ce que les gens racontent. nous sur où cette ligne devrait être. Et puis, soyez simplement très transparent et ouvert sur l'endroit où il se trouve. "

Pour être clair, les normes communautaires publiées par Facebook n'incluent pas les contours exacts de ces lignes. Ils ne disent pas toujours quels mots, symboles, signifiants ou images poussent un message de «acceptable» à quelque chose qui devrait être supprimé. Et ils ne disent pas combien ou quel pourcentage de publications doivent enfreindre les normes de la société avant que les modérateurs ne suppriment un profil ou une page, par opposition aux publications incriminées. Les fuites de documents obtenues par la carte mère , cependant, font.

La décision rapide de mondialiser les politiques de modération de contenu de Facebook, et de chercher à autoriser autant de discours que possible, s'est étendue aux politiques et à la mise en application actuelles, avec des enjeux beaucoup plus importants.


Une diapositive de formation reproduite sur les politiques de discours de haine de Facebook. Cette diapositive a été recréée par la carte mère pour protéger une source.
Par exemple, Facebook interdit le "racisme" et interdit spécifiquement la suprématie blanche . Mais selon certains des documents divulgués, il a été décidé qu’il autoriserait le nationalisme blanc et le séparatisme blanc, ce qui, selon les spécialistes de l’histoire noire, est indissociable et indissociable de la suprématie blanche.

Dans les diapositives, Facebook définit le nationalisme blanc comme une idéologie qui «cherche à développer et à maintenir une identité nationale blanche», une définition tirée de Wikipedia . Les diapositives de Facebook notent alors que cela peut être "inclusif", en ce sens qu'il "inclut" des personnes blanches; la race est une "caractéristique protégée" sur Facebook, quelle que soit sa race. "Le nationalisme blanc et l'appel à un État exclusivement blanc ne constituent pas une violation de notre politique, à moins que celle-ci n'exclue explicitement d'autres caractéristiques protégées", indiquent les diapositives.


Une diapositive de formation reproduite sur les politiques de discours de haine de Facebook. Cette diapositive a été recréée par la carte mère pour protéger une source.
"Pendant l’ère Jim Crow, les suprémacistes blancs se sont projetés en tant que séparatistes blancs pour faire valoir qu’ils étaient de bonnes personnes", a déclaré Ibram X Kendi, qui a remporté un prix national du livre en 2016 pour Stamped from the Beginning. Des idées en Amérique , a déclaré Motherboard. "Je pense que Facebook les prend au mot parce que cela les met dans la meilleure position pour se projeter comme s’occupant de la rhétorique des suprémacistes blancs. Mais lorsqu'ils se partagent les cheveux, ils peuvent simultanément être orientés vers la justice sociale et défendre dans leur esprit la liberté d'expression des «nationalistes blancs».

Il est difficile de voir comment on peut s'attendre à ce qu'un modérateur interprète une politique selon laquelle défendre les États-Unis uniquement en blanc n'est pas intrinsèquement exclusif, et encore moins l'appliquer à du contenu réel. Dans plusieurs conversations, Facebook n'a pas encore expliqué la décision d'une manière qui soit logique lorsqu'on envisage l'assujettissement historique des Noirs aux États-Unis. On nous a dit que la société pensait qu’elle devait considérer comment une politique qui interdit tous les mouvements nationalistes liés à la race ou au groupe ethnique affecterait les gens à l’échelle mondiale.


Une diapositive reproduite sur les politiques de discours de haine de Facebook. Cette diapositive a été recréée par la carte mère pour protéger une source.
"Nous ne pensons pas seulement à un groupe particulier qui prend part à un certain discours, nous pensons à:" Et si différents groupes participaient à ce même type de discours? " Si c'était le cas, voudrions-nous avoir une politique les empêchant de le faire? ", A déclaré Bickert. "Donc, là où nous avons tracé la ligne est maintenant, là où il y a de la haine, où il y a des licenciements d'autres groupes ou dire qu'ils sont inférieurs, ce genre de contenu, nous le supprimerions et nous le supprimerions de tout le monde. "


Un porte-parole de Facebook a par la suite expliqué que les politiques actuelles sont écrites pour protéger d'autres mouvements séparatistes: "Pensez-y, et vous pouvez toujours ne pas être d'accord avec la politique, mais pensez aux groupes séparatistes noirs et au mouvement sioniste. Mouvement basque », a déclaré un porte-parole de Facebook. Facebook a ajouté que les groupes nationalistes et séparatistes en général peuvent plaider en faveur de quelque chose mais sans nécessairement indiquer l'infériorité des autres.

C'est un thème récurrent pour les politiques de contenu de Facebook: si vous prenez un seul cas et que vous pensez à un nombre encore plus élevé de pays dans lesquels Facebook dispose d'un contexte encore moins historique, les règles simples ont de plus en plus de chances de produire des résultats indésirables .

"Imaginez une politique entière autour d'un petit groupe tribal qui est harcelé dans une zone minuscule du Cameroun", a déclaré Klonick. La puissance et la portée de Facebook signifient que les décisions concernant les mesures à prendre concernant ce type de discours ont été centralisées par une société américaine. "Comment fait-on pour que quelqu'un intervienne?"

Les équipes chargées des politiques, des produits et des opérations de Facebook discutent des compromis et des impacts potentiels de chaque politique, et plusieurs employés ont indiqué à la carte mère qu'il existe régulièrement des désaccords internes concernant les spécificités des différentes règles.

Un questionnaire de formation offre quelques exemples: Une photo de Taylor Swift avec les yeux de l'anus: OK. Une photo de Donald Trump avec une bouche d'anus: OK. Une photo de Kim Jong Un avec une bouche d'anus et des perles anales retirées: Pas OK.


"J'ai trouvé que les gens, une fois qu'une décision est prise, vont s'engager à prendre cette décision et essayer de l'exécuter", a déclaré Potts. "Des désaccords au sujet d'une attaque, des désaccords sur une stratégie, mais une fois qu'une décision est prise, vous devez y adhérer et aller de l'avant."

Les diapositives visualisées par la carte mère montrent à plusieurs reprises que, bien que Facebook croit en un monde sans frontières, la réalité est que la mise en application est souvent spécifique à un pays. Ceci afin de se conformer à la législation locale et d'éviter d'être expulsé des marchés individuels. Bickert a déclaré à la carte mère que Facebook crée parfois des diapositives spécifiques à chaque pays pour donner aux modérateurs un "contexte local". Et comme Zuckerberg l'a écrit dans sa lettre, Facebook estime que l'application devra être spécifique à la culture et au pays.

"Nous avons une politique mondiale, mais nous voulons être conscients de la manière dont le discours qui viole cette politique se manifeste dans un certain lieu par rapport aux autres", ajoute-t-elle. "Nous cherchons constamment à affiner les [politiques], à ajouter des nuances ou à les modifier à mesure que les circonstances changent."


Un document Facebook interne expliquant quand il supprime du contenu dans certains pays mais pas dans d'autres.
En Inde et au Pakistan, les modérateurs sont invités à diffuser des contenus potentiellement illégaux, tels que la phrase "fuck Allah" ou des représentations de Mohammed, à l’unité de conformité internationale de Facebook, selon des documents divulgués. "Aucune spécificité requise", et "L'humour n'est pas autorisé", ajoutent les documents, faisant référence à la diffamation de toute religion. Ce type d’exceptions peut s’appliquer à «un contenu qui ne viole pas la politique de Facebook», lit-on dans un document.

La raison en est l'échelle: "pour éviter d'être bloqué dans n'importe quelle région", ajoute le document.


Neuf pays, dont la France, l’Allemagne, l’Autriche, Israël et la Slovaquie, poursuivent activement des problèmes liés au négationnisme, selon un document publié sur Facebook. Pour se conformer aux lois locales, Facebook empêche les utilisateurs ayant des adresses IP de ces pays de consulter le contenu de déni de l'Holocauste signalé. Facebook respecte les lois locales "lorsque le gouvernement poursuit activement leur application", ajoute le document.


Un document interne expliquant à quel moment Facebook géobloque le matériel qui nie l'Holocauste.
La négation de l'Holocauste a été un problème qui a enflammé les travailleurs de Facebook pendant des années, et a refait surface lorsque Zuckerberg a défendu le laisser sur la plate-forme pour recoder. En 2009, lorsque TechCrunch a publié une série d'articles sur Facebook autorisant le négationnisme, un certain nombre d'employés juifs ont fait valoir publiquement et publiquement que ce n'était pas la place de Facebook pour gérer ce type de contenu. Un ancien employé de Facebook a corroboré le reportage de TechCrunch à la carte mère et a déclaré qu'un état d'esprit d'ingénierie l'emportait sur ces émotions pour tenter de trouver des solutions plus générales et abstraites plutôt que de se concentrer sur la stratégie de modération à venir.

Cette même année, après une fusillade au Musée de l' Holocauste à Washington, DC, Facebook a expliqué que « tout être offensant ou répréhensible ne soit pas [content] retiré Facebook. » Aujourd'hui encore, Facebook dit sa « mission est tout d'embrasser la diversité vues. Nous nous permettons d’autoriser le contenu, même si certains le trouvent inacceptable. "


UN PROCESSUS INDUSTRIEL

L'équipe chargée de la politique de modération du contenu de Facebook parle souvent de «tracer des lignes», puis de communiquer clairement ces lignes. Mais, encore une fois, l’échelle de Facebook et la stratégie choisie consistant à créer des politiques distinctes pour des milliers de types de contenu différents les rendent extrêmement difficiles à expliquer au public et aux modérateurs. Willner, le premier responsable de la politique de contenu de Facebook, a appelé cette "prise de décision industrialisée".

"Nous ne pouvons tout simplement pas voir 100 000 lignes dans le sable", a déclaré Roberts, professeur à l'UCLA. "Par rapport à la création d’un autre type de système où il existe des valeurs très fortes et omniprésentes à un niveau de haut en bas qui sont imprégnés de toute la plate-forme, de ses politiques et de ses fonctionnalités."

Pour créer des politiques de oui ou non pour tout, Facebook essaie déjà de connaître exactement les paramètres de ce qu'il permet sur sa plate-forme, jusqu'à un niveau nécessairement pédant. Cela comprend l'explication des attaques qualifiées de discours de haine sur sa plate-forme, et celles qui ne le sont pas, ou même des sortes de photos sur des visages que Facebook est prêt à autoriser sur son site. (S'il s'agit d'un personnage public, il est généralement permis. Un questionnaire de formation en offre quelques exemples: Une photo de Taylor Swift avec les yeux de l'anus: OK. Une photo de Donald Trump avec la bouche de l'anus: OK. Une photo de Kim Jong Un avec un anus bouche etles perles anales en sont retirées: pas OK. "L'exception est limitée à l'anus et au gros plan d'un cul entièrement nu", indique un document interne de Facebook obtenu par Motherboard. "Nous ne ferons pas une exception pour l'activité sexuelle.")


Un document interne qui explique quels types d’anus Photoshopped sont autorisés sur la plate-forme.
"Ils veulent que la modération soit si granulaire qu’elle soit fondamentalement irréprochable", a déclaré Marcus (dont le nom a été modifié), qui travaille sur la modération de contenu pour Facebook. Motherboard a accordé un certain nombre de sources de modération, qui ne sont pas autorisées à communiquer avec la presse, l'anonymat pour parler franchement de leur travail.

Les modérateurs ne sont généralement pas des experts dans un domaine particulier, alors Facebook leur fournit des formules à suivre. Mais essayer de résumer quelque chose d'aussi désordonné que tout le spectre de la communication humaine dans une série d'instructions pour les modérateurs est une cible en constante évolution.

PUBLICITÉ

"Il est extrêmement difficile, voire impossible, de créer une politique écrite qui capture tout cela", a déclaré une autre source de modération sur Facebook, en référence à la lutte contre le discours de haine en particulier.


Une diapositive de formation Facebook; plus tôt cette année, cette image a été autorisée, mais les récents changements de politique signifient qu’elle est désormais interdite. Motherboard a omis certaines parties spécifiques de cette diapositive afin de protéger une source.
Ironiquement, la tentative de Facebook pour englober tout le contenu dans une approche très étroite conduit souvent à ce que la plate-forme ne surveille pas le matériel qui, de toute autre manière, aurait été démarré depuis le site. Un manuel de formation divulgué comprend une illustration avec les symboles masculin et féminin dans un coin, étiquetés «genre», puis une foule d'autres genres et identités, tels que le sexe et le transgenre, décrits comme «troubles mentaux». Au moment du manuel de formation daté du mois de mai, serait autorisé à rester sur Facebook, car il n’ya personne sur l’image même, indique le matériel de formation.

Facebook a apparemment réalisé à quel point cette image et d'autres similaires sont tolérées. Selon un courrier électronique interne obtenu par la carte mère, les modérateurs ont récemment été invités à interdire l'image dans le cadre de la section "déclarations d'infériorité" de la politique de discours de haine de Facebook.


Une diapositive de formation Facebook expliquant que cette image est autorisée sur la plate-forme. Motherboard a omis certaines parties spécifiques de cette diapositive afin de protéger une source.
Dans un autre exemple, un article montre une caricature d'un homme juif avec les tours jumelles en feu en arrière-plan. L'homme juif, son nez et d'autres traits exagérés, dit "Bonjour mes chers esclaves, vous souvenez-vous de ce jour où nous avons mis Thermite et des bombes dans ces tours et les avons démolies", avant d'ajouter que les juifs diffusaient les informations sur les médias occidentaux , jouant sur le stéréotype des Juifs possédant une grande partie des médias.

Cette représentation des juifs ne viole aucune des politiques de Facebook et serait ignorée et laissée sur le site. Cela est dû au fait que le «dessin animé de Juif gourmand» décrit par Facebook ne peut être qualifié de discours de haine sans attaque supplémentaire, comme le montre le matériel de formation. (La diapositive indique également «Ignorer parce que: théorie du complot». Facebook a déclaré publiquement que le simple fait d’avoir tort, à la manière de certains contenus d’InfoWars ou d’autres colporteurs de complot, ne suffisait pas à bannir ou à supprimer les mods. matériel, une violation, telle que le discours de haine, est nécessaire.)

PUBLICITÉ

Facebook a confirmé à Motherboard que sans aucun contexte supplémentaire (comme une attaque plus explicite dans la légende de la photo), cette image serait toujours autorisée car elle estime que ce n'est pas une attaque et qu'elle ne se moque pas des victimes du 11 septembre. Elle ajoute que cette caricature particulière est régulièrement supprimée si elle s'accompagne d'une attaque (qu'elle définit par exemple comme "les Juifs sont gourmands"). Facebook estime qu'il est important de ne pas interdire la caricature car l'entreprise le dit. voit souvent l'image à côté du discours politique qu'il ne veut pas supprimer.

Facebook a déclaré que Sandberg avait encouragé l'entreprise à continuer à réfléchir à la manière d'utiliser une approche plus granulaire, tout en élaborant des politiques en matière de discours de haine et en les appliquant. Dans un changement qui a émergé après que Sandberg a encouragé davantage de travail sur le traitement des discours de haine, Facebook protège désormais les "femmes conducteurs" contre les attaques directes et supprime le contenu associé. Auparavant, les attaques contre les "femmes" étaient interdites mais les attaques contre les "femmes conductrices" ne l'étaient pas, car Facebook ne considérait pas les "pilotes" comme un groupe protégé.

"Il y a toujours un équilibre entre: ajoutons-nous cette exception, cette nuance, ce compromis régional et pouvons-nous encourir une moindre précision et plus d'erreurs", a déclaré Guy Rosen, vice-président de la gestion de produits chez Facebook. "[Ou] reste-t-il simple, mais peut-être pas aussi nuancé dans certains cas extrêmes? Un équilibre qui est vraiment difficile à trouver en fin de journée."

PUBLICITÉ

"Ce que beaucoup de ces entreprises craignent, c’est que leur activité principale puisse très facilement devenir la force de sécurité d’Internet, 24 heures sur 24, 7 jours sur 7"

Le processus d'affinement des politiques visant à refléter les humains menant des mèmes ou des insultes de manière organique ne peut jamais prendre fin. Facebook met constamment à jour ses directives de modération interne et a poussé certains de ces changements, mais pas tous, dans ses règles publiques. Chaque fois que Facebook identifie un avantage et ajoute des mises en garde supplémentaires à ses consignes de modération internes, un autre apparaît et passe à travers le net.

Une présentation de discours de haine obtenue par la carte mère contient une liste de toutes les modifications récentes apportées au jeu de diapositives, y compris des ajouts, des suppressions et des précisions sur certains sujets. En quelques mois, Facebook a modifié plusieurs fois le document de formation sur les discours de haine en quelques jours seulement. En tout, Facebook a modifié le matériel plus de 20 fois en cinq mois. Certains changements de politique sont suffisamment légers pour ne pas nécessiter de recyclage, mais d'autres changements, plus nuancés, nécessitent une nouvelle formation des modérateurs sur ce point. Certaines présentations individuelles obtenues par la carte mère s'étendent sur des centaines de diapositives, en passant en revue des exemples et des points sur les raisons pour lesquelles certains éléments de contenu doivent être supprimés.

À L'INTÉRIEUR DE LA BOÎTE EN VERRE

Marcus a comparé le contenu modérateur de Facebook à une boîte de verre, séparée du contexte et des événements qui se produisent à l’extérieur. Les modérateurs entrent dans leur bureau, suivent des politiques de mise en application binaires et des diagrammes de flux pendant des heures, parfois avec des collègues qui ont une petite idée des nuances du matériel qu'ils analysent, puis rentrent chez eux. Ce n'est pas comme regarder les informations, ou rester informé, a déclaré Marcus.

PUBLICITÉ

"Il y a un effondrement du contexte avec lequel nous voyons le monde, ou nous utilisons pour interpréter ce contenu", a-t-il ajouté. "Nous devrions être les experts, et nous sommes plutôt dans cette fausse construction. Ce n'est pas un reflet du monde réel au fond. "

Lorsqu'un utilisateur de Facebook marque un élément de contenu parce qu'il estime qu'il s'agit d'une violation ou d'une violation des conditions d'utilisation du site, le rapport est envoyé à un modérateur pour qu'il agisse. Le modérateur peut décider de laisser le contenu en ligne, de le supprimer ou de transmettre le problème à un autre membre de l'équipe Facebook qui peut avoir des connaissances plus spécialisées sur un type de contenu particulier. Facebook peut également pousser le contenu vers le haut de la chaîne pour une troisième revue. Mais les modérateurs doivent non seulement décider de supprimer ou d’ignorer, mais ils doivent également choisir la bonne raison de le faire, ce qui peut souvent se chevaucher. Le contenu viole-t-il la politique de nudité ou de vengeance du site ? Est-ce un discours de haine ou une insulte?

"Nous pourrions passer plusieurs jours à nous disputer pour quelle raison nous supprimerions" vous ne pouvez pas faire confiance à Ivanka, elle dort avec un sale k ***, "même si k *** est une insulte et une raison de supprimer le message no Peu importe quoi ", a déclaré Marcus, faisant référence à Ivanka Trump et à son mari juif Jared Kushner. Marcus a déclaré que ce genre de problème existe, dans une certaine mesure, avec toutes les politiques. Mais la liste des options pour les discours de haine est beaucoup plus longue et les possibilités difficiles à différencier les unes des autres, ce qui signifie qu'il peut être beaucoup plus difficile pour les modérateurs de choisir la réponse "correcte" qui correspond à celle de leur auditeur.

PUBLICITÉ

"C’est souvent un exercice absurde", a ajouté Marcus.


Signes dans l'un des bureaux de Facebook à son siège. Image: Jason Koebler
Facebook a besoin de ces données de décision, cependant, pour s’assurer que le contenu est supprimé pour la bonne raison - s’il ya un pic soudain de messages supprimés en tant que discours de haine, plutôt que, disons, célébrer le crime, Facebook idée de ce qui est exactement sur sa plate-forme. Il sera également capable de quantifier si elle empêche effectivement ce contenu de se propager. (Facebook surveille la fréquence à laquelle le contenu offensant est consulté et utilisé, et à quelle vitesse il est supprimé.) Étonnamment, Facebook n'a commencé à collecter des données sur les raisons pour lesquelles les modérateurs supprimaient du contenu en 2017, a déclaré Rosen.

"Nous n'avions même pas de record, car nous optimisions uniquement pour faire le travail. En réalité, nous n’avions pas enregistré ce pour quoi il avait été supprimé », at-il déclaré. "Il n'y a pas vraiment de manuel pour cela. Personne ne l'a fait à cette échelle et nous avons donc développé et nous développons des paramètres qui, selon nous, représentent les progrès que nous pouvons réaliser. "

"Nous ne savons toujours pas si [le traitement du langage en birman] va vraiment fonctionner, à cause des défis linguistiques"

Si le contenu signalé contient plusieurs violations, comme c'est souvent le cas, la parole étant aussi compliquée que cela, les modérateurs doivent suivre une hiérarchie expliquant la politique à suivre pour supprimer le contenu, a expliqué un deuxième modérateur. L'une des sources a déclaré que cela pouvait ralentir le processus de suppression, les employés essayant de déterminer la raison exacte de la suppression du contenu.

"Il peut être déroutant d'apprendre la politique du discours de haine", a déclaré une troisième source de modération à Motherboard. "Les modérateurs se demandent constamment la plupart des discours de haine sur la façon dont ils lisent", ont-ils ajouté.

Brian Doegen, responsable mondial des opérations communautaires de Facebook, qui supervise les meilleures pratiques de formation des modérateurs, a déclaré que Facebook introduisait un mode "simulation" pour ses modérateurs afin de leur permettre de retirer du contenu sans impact sur le contenu des utilisateurs Facebook. Doegen a cité le discours de haine comme un exemple où un accompagnement accru est souvent nécessaire.

Facebook collecte également des données modératrices afin que cette approche binaire soit plus facile à automatiser, que Facebook applique des flux de logique, si un humain dit que l'image contient X, Y et Z, puis la supprime automatiquement ou continue à développer des solutions d'intelligence artificielle. peut marquer le contenu sans rapports d'utilisateur.

L'approche de modération "crée la boucle de rétroaction beaucoup mieux", a déclaré Rosen, avec des conclusions humaines fournissant la contribution pour les actions que le logiciel prend finalement.


Un modèle de certains des nouveaux bureaux de Facebook. Image: Jason Koebler
Si les modérateurs réussissent bien, on leur donne plus de discours de haine, ont déclaré plusieurs modérateurs, car il est beaucoup plus difficile à contrôler que d’autres types de contenu. Mais, parce que les modérateurs normaux et ceux qui traitent le discours de haine sont notés sur la même base, cela augmente également les chances que les modificateurs de discours de haine obtiennent un mauvais score. Les modérateurs sont confrontés aux conséquences s'ils tombent en dessous d'un taux de précision de 98%, a ajouté Marcus.

Et ils ne durent généralement pas longtemps dans le travail.

PUBLICITÉ

"Presque personne n'a son anniversaire", a déclaré Marcus. "Beaucoup d'employés ne s'en soucient pas. Mais ceux qui se soucient de cela sont certains. "Certaines personnes ne s’épuisent pas et aiment simplement rester occupées, modérer le contenu signalé, ou les" jobs "à l’arrière, a déclaré l’une des autres sources, mais l’a reconnu" un environnement stressant. "

Facebook ne partagerait pas de données sur la rétention des modérateurs, mais a déclaré qu’il reconnaissait que le travail était difficile et qu’il offrait une formation continue, du coaching et de la résilience, ainsi que des ressources de conseil aux modérateurs. Il est dit que les sondages internes montrent que la rémunération, offrant un sens du but et des opportunités de croissance de carrière, et offrant une flexibilité de planification sont les plus importants pour la rétention du modérateur.

Les formateurs font dire aux modérateurs d'examiner un morceau de contenu de manière globale, mais en raison de la notation de point de modération de Facebook, « étant marquée correcte nous réduit essentiellement tous à utiliser les lignes les plus clairement définies comme étant la norme, » Marcus a dit. En réalité, les lignes d'un discours de haine peuvent ne pas être si explicites.

Le fait est que les modérateurs doivent encore exercer leur propre jugement, même lorsque des étapes de suppression de contenu leur sont données: si une photo contient la définition de «clivage» de Facebook, ou un débat interne si un article est sarcastique, Marcus a expliqué.

Et c'est pourquoi, bien que Facebook investisse massivement dans l'intelligence artificielle et dans des moyens plus automatisés de modération du contenu, la société reconnaît que les humains sont là pour rester.

PUBLICITÉ

"Les gens continueront à faire partie de l'équation, ce sont les gens qui rapportent les choses et les personnes qui examinent les choses", a déclaré Rosen.

Erreurs douloureuses

En octobre 2016, un Turc âgé de 22 ans s'est connecté à Facebook et a commencé à diffuser .

"Personne n'a cru quand j'ai dit que je me tuerais", a-t-il déclaré. "Alors regarde ça."

Il a sorti une arme et s'est tiré une balle.

Six mois plus tôt, Facebook avait déployé Facebook Live sur toute la plateforme. Il ne prévoyait pas le stress énorme que cela poserait sur son infrastructure de modération: la modération de la vidéo est plus difficile que la modération du texte (qui peut être facilement recherché) ou des photos (qui peuvent être bannies une fois puis empêchées d'être téléchargées). La modération de la vidéo telle qu’elle se produit est encore plus difficile.

"Nous apprenons en cours de route", a déclaré Justin Osofsky, chef des opérations mondiales de Facebook, à la carte mère. «Ainsi, tant que vous ne publiez pas de vidéo en direct, vous ne comprenez pas pleinement la complexité de la création des stratégies appropriées pour la vidéo en direct, leur mise en application précise et la création d’expériences correctes. Mais tu apprends Et nous avons appris et nous nous sommes améliorés. "

Les premières décisions de Facebook de connecter autant de personnes que possible et de déterminer plus tard les détails continuent d'avoir des ramifications. La société estime que son service est un net positif pour les pays dans lesquels il entre, même si l'entreprise elle-même n'est pas entièrement prête à faire face aux défis inattendus qui surviennent dans les nouveaux territoires. Pour toute personne ayant une expérience négative sur la plate-forme suite à des problèmes de modération du contenu, qui peuvent aller de voir une personne nue ou du spam dans son flux à quelque chose d'aussi extrême qu'une personne se suicidant sur Facebook, il y a des millions de personnes qui ont pu renouer avec d'anciens camarades de classe, promouvoir leur petite entreprise ou trouver un appartement.

"Je ressens une immense responsabilité de veiller à ce que les gens aient une bonne expérience sur Facebook"

Ainsi, Facebook a continué de se lancer dans de nouveaux territoires, et il est toujours difficile de modérer le contenu de certains d’entre eux. Au début de l’année, Facebook a été accusé d’aider à faciliter le génocide au Myanmar, car il a permis aux rumeurs et aux discours de haine de proliférer sur la plate-forme. Comme l'a rapporté Reuters, c'est en partie parce que, jusqu'à récemment, Facebook comptait peu de modérateurs parlant birman . Rosen, le chef de produit de Facebook, a déclaré à la carte mère qu'IA ne détecte pas encore le birman, qui, en raison de l'isolement du Myanmar, est codé par les ordinateurs différemment des autres langues. Facebook a été lancé au Myanmar en 2011 .

"Nous ne savons toujours pas si cela va vraiment s'arranger, à cause des défis linguistiques", a déclaré Rosen. "Les Birmans n'étaient pas en Unicode depuis longtemps et ont donc développé leur propre police locale, au fur et à mesure de leur ouverture, qui n'est pas compatible avec Unicode. ... Nous travaillons avec la société civile locale pour obtenir leur aide en signalant les publications de contenu problématiques, ainsi que les événements actuels, afin que nous puissions les supprimer, mais aussi comprendre comment nous pouvons avancer, surtout si notre application est extrêmement populaire. l'état d'Unicode dans le pays. "

Osofsky dit que son équipe, l'équipe politique de Bickert, et l'équipe produit font souvent des "révisions d'incidents" dans lesquelles ils récapitulent les "erreurs douloureuses" qui ont été commises dans la modération de la politique et déterminent comment faire mieux la prochaine fois.

PUBLICITÉ

"Notre politique était-elle mauvaise ou correcte? Si notre politique était correcte, l’erreur a-t-elle été commise dans la manière dont nous avons appliqué la politique? », A déclaré Osofsky. "L'erreur était-elle due à des erreurs commises par des personnes, à l'instar des réviseurs qui se trompaient, ou était-ce dû au fait que les outils n'étaient pas assez bons, ils ne pouvaient pas le faire apparaître?"

Tout le monde avec qui Motherboard a parlé à Facebook a intériorisé le fait que la perfection est impossible et que le travail peut souvent être déchirant.

"Je ressens une immense responsabilité de veiller à ce que les gens aient une bonne expérience sur Facebook", a déclaré Osofsky. "Et puis, lorsque vous examinez les erreurs que nous avons commises, si cela montre une image qui viole nos politiques et aurait dû être supprimée, si elle ne réagit pas suffisamment de manière intime dans un moment intime ... ce sont des moments vraiment importants pour la vie des gens et je pense que mon équipe et moi ressentons la responsabilité de bien faire les choses à chaque fois. Et si vous ne le faites pas, il est difficile de réfléchir à la raison, puis de la réparer. "

Les gens à l'intérieur de tout ce qui est à la machine de Facebook ne seront jamais capables de prédire le «tout» que leurs semblables vont y mettre. Mais le problème insoluble est Facebook lui-même: si la mission reste de connecter «tout le monde», Facebook ne résoudra jamais son problème de modération de contenu.

Les incendies de relations publiques de Facebook sont donc un symptôme d'un cauchemar infrastructurel qui menace une bande toujours croissante de l'expression publique de l'humanité. Pour Facebook, c'est un problème qui pourrait consommer l'entreprise elle-même.

"Ce que beaucoup de ces entreprises craignent, c'est que leur activité principale pourrait très facilement passer aux forces de sécurité d'Internet, 24 heures sur 24, 7 jours sur 7", a déclaré Roberts, professeur à l'UCLA. "Cela pourrait être tout ce que Facebook fait vraiment."

Et c’est pourquoi, bien que les personnes invitées à la maison de Mark Zuckerberg à parler de la modération du contenu aient apprécié ce geste, beaucoup d’entre elles se sont senties comme un acte de conservation et non comme une véritable tentative de changer l’objectif de Facebook. , communauté mondiale sur la plate-forme. (Facebook a confirmé que les dîners avaient eu lieu et a déclaré que Rosen et Bickert étaient également présents pour partager les commentaires avec les équipes de produit et de politique.)

Tout le monde dans le monde académique sait que Zuckerberg discute du sujet avec des professeurs, mais il n’a pas précisé qu’il faisait quoi que ce soit avec ces conversations, sauf pour signaler qu’il parlait aux bonnes personnes.

"Tout le monde à qui j'ai parlé et qui en sortait a dit:" Je ne pense pas vraiment qu'il écoutait ", a déclaré à Motherboard une personne familière avec les dîners. "En invitant toutes ces personnes, on essaie de leur faire oublier le problème."

https://motherboard.vice.com/en_us/arti ... tion-works

_________________
Cordialement

Thierry Tsagalos

Page Fan FB https://www.facebook.com/planetemuscle/
Groupe FB https://www.facebook.com/groups/planetemuscle/
Twitter https://twitter.com/planetemuscle


Partager sur Facebook Partager sur Twitter Partager sur MySpace
Haut
 Profil  
 
Afficher les messages postés depuis:  Trier par  
Poster un nouveau sujet Répondre au sujet  [ 1 message ] 

Heures au format UTC


Qui est en ligne

Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 4 invités


Vous ne pouvez pas poster de nouveaux sujets
Vous ne pouvez pas répondre aux sujets
Vous ne pouvez pas éditer vos messages
Vous ne pouvez pas supprimer vos messages
Vous ne pouvez pas joindre des fichiers

Rechercher:
Aller à:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Traduction par: phpBB-fr.com
[ Time : 0.073s | 16 Queries | GZIP : Off ]