Skip to main content

Home/ QN2019/ Group items tagged modération

Rss Feed Group items tagged

Aurialie Jublin

Commentaires pédophiles sous les vidéos de mineurs : que peut faire YouTube ?... - 0 views

  • Pour faire face à une telle demande de modération, les algorithmes ne suffisent pas. C’est pour cela que Google, qui détient YouTube, s’était engagée l’année dernière à « porter à 10 000 » le nombre de modérateurs, soit des « personnes chargées de lutter contre les contenus susceptibles de violer les politiques de Google et YouTube ». YouTube rappelle également s'être rapprochée d’organismes à but non lucratif comme la NCMEC aux Etats-Unis (Centre National pour les enfants disparus ou exploités) ou Point de Contact en France afin qu’ils transmettent les informations aux autorités compétentes. 
  • La modération, qu'elle soit algorithmique ou humaine, peut-elle suffir ? L'embauche de modérateurs laisse Fabrice Epelboin, spécialiste des réseaux sociaux et auteur d’une étude sur la pédophilie en ligne en 2010, perplexe : « Lorsqu’un juge prend une décision, il utilise son intelligence ou son jugement. Ici, on est face à des employés qui ne font qu’appliquer des règles, et qui en plus, sont payés au lance-pierre. » La modération algorithmique ne suffit pas non plus face à un contenu si immense, estime-t-il : « YouTube ne peut pas lutter. Il y a une quantité de contenus postés qui dépasse l’entendement. Je ne pense pas que cela soit utile de renforcer les algorithmes de YouTube pour l’instant, car l’intelligence artificielle n’est pas suffisamment opérationnelle aujourd’hui pour filtrer le web.»
  • Il ajoute également que dans le cas de cette nouvelle affaire, on ne peut pas écarter « l’option trollesque ». Il se peut, selon lui, qu’une partie des commentaires soit postée par des « trolls », des internautes qui postent des messages tendancieux pour alimenter les polémiques. « Ma première réaction a été de penser au forum 4chan, un équivalent de jeuxvideos.com aux Etats-Unis. Dans les années 2000, des utilisateurs s’amusaient à tourner en dérision la pédophilie en "trollant" sur des vidéos YouTube. Je me souviens notamment d’une vidéo de Justin Bieber qui avait été prise pour cible. »
  • ...2 more annotations...
  • Mais alors, quelle est la responsabilité de la plateforme dans la prolifération de ces commentaires et la facilité d'accès à ces vidéos, recommandées par son algorithme ? Le débat n’est pas nouveau. Facebook avait été fustigé pour avoir « laissé proliférer » des théories complotistes, voire encouragé celles-ci, notamment après la fusillade de Parkland en février 2018. La question ne cesse de revenir : doit-on simplement considérer YouTube, Twitter ou Facebook comme des plateforme d’hébergement et de partage, et donc accepter qu’elles ne soient pas responsables des contenus qui y sont publiés, ou doit-on exiger qu'elles soient responsables juridiquement en cas de scandales comme celui-ci ? 
  • Sur la question spécifique des contenus ou commentaires pédophiles, YouTube n’en est pas à son premier nettoyage. En décembre dernier, The Times of London avait révélé que 100 enfants avaient été les victimes de potentiels pédophiles sur YouTube. Alors qu’ils se filmaient en direct devant leur caméra pour s’amuser (livestreaming), des internautes leur ont demandé de retirer leurs vêtements ou d’adopter des poses sexualisées. Selon le journal, qui avait signalé ces vidéos, seulement la moitié des contenus avaient alors été supprimés par YouTube. Les journalistes ont dû contacter le service de presse de YouTube pour retirer l’autre moitié.
  •  
    "Malgré la vivacité des algorithmes ayant repéré les « CP » sur cette affaire Pokémon Go, des millions de vidéos d'enfants pullulent sur la plateforme sans que des commentaires pédophiles qui y sont associés ne soient modérés. Le contenu de ces vidéos n'est pas pédopornographique. On y voit majoritairement des jeunes filles en train de faire du yoga, de la gymnastique, ou de jouer au jeu d'équilibre Twister. Des vidéos familiales ou filmées par des enfants eux-mêmes, suffisamment habiles pour jouer avec leur mobile ou leur tablette. Mais ce qu'a soulevé le YouTubeur MattsWhatItIs dans une vidéo postée le 17 février, ce sont la non modération des commentaires pédophiles sous ces vidéos, ainsi que le rôle de l'algorithme de recommandation de YouTube. Muni d'un VPN et d'un nouveau compte, le Youtubeur a réussi à atteindre ces vidéos en quelques clics, en tapant « bikini haul » (une pratique qui consiste à montrer les maillots de bain qu'on vient d'acheter), « gymnastics » (gymnastique), ou encore « yoga ». Au départ, les vidéos proposées correspondent aux mots-clefs. Mais après deux ou trois clics dans la barre « vidéos similaires », des vidéos d'enfants apparaissent. Une fois le premier clic enclenché, on est plongé dans une bulle pernicieuse qui ne nous propose rien d'autre que des vidéos de petites filles."
Aurialie Jublin

Modération, tri des données: l'ONU s'inquiète des conditions de travail des «... - 0 views

  • La majeure partie des tâches proposées consiste à compléter des questionnaires, souvent à des fins de recherche scientifique. La collecte de données arrive en second: il peut s'agir par exemple de trouver les adresses mails de tous les podologues d'une ville, moyennant 10 centimes par adresse mail trouvée. Une part non négligeable repose sur la transcription d'images ou d'extraits sonores. C'est grâce à ce type de travaux que les géants du Web entraînent leurs intelligences artificielles. Enfin, la modération de contenus est extrêmement fréquente. Pour l'ONU, toutes ces tâches «ne correspondent pas au niveau d'éducation des travailleurs», qui sont 37% à être titulaire d'un diplôme universitaire.
  • Pire, certains de ces travaux sont extrêmement difficiles sur le plan psychologique: beaucoup de modérateurs souffrent ainsi de syndromes de stress post-traumatiques à force d'être exposés aux contenus les plus sombres du Web (images de torture, de pédopornographie, de massacres...).
  • Pour couronner le tout, les rythmes de travail sont particulièrement soutenus: 43% des sondés travaillent la nuit, 68% travaillent entre 20h et 22h, souvent car ils exercent en parallèle une autre activité professionnelle, les revenus du digital labor ne permettant pas d'en faire une activité à temps plein. Les salaires sont, à l'échelle mondiale, ramenés à la moyenne de 3,31 dollars de l'heure en fourchette basse, 4,43 dollars en fourchette haute (soit entre 2,81 et 3,76 euros). L'enquête démontre qu'une proportion substantielle de travailleurs gagne moins que le salaire minimum de leur lieu de résidence. L'ONU ajoute qu'une part non négligeable de «para-travail» n'est pas payée: pour chaque heure travaillée, au moins 20 minutes sont consacrées à des tâches comme la connexion sur les plateformes, les démarches administratives, chercher de nouvelles tâches, comprendre les énoncés des instructions... À noter également, 90% des répondants affirment avoir déjà été non payés pour des tâches accomplies.
  • ...1 more annotation...
  • Malgré les conditions de travail difficiles, 88% des sondés aimeraient se voir proposer plus de microtâches en ligne afin d'accroître leurs revenus. L'ONU observe que le secteur du digital labor est voué à continuer de se développer étant donné les besoins croissants en main d'œuvre de l'économie numérique. Pour cette raison, l'enquête appelle à une régulation plus ferme des conditions de travail. La majeure partie des travailleurs n'est ainsi couverte par aucune assurance maladie ou civile, ne cotise pas pour la retraite et le revenu gagné échappe souvent au radar des autorités fiscales.
  •  
    "Ces petites mains invisibles sont indispensables pour nettoyer les bases de données, entraîner les intelligences artificielles ou encore assurer la modération des contenus sur le Web. Pour la première fois, une étude de grande ampleur de l'ONU se penche sur ce travail qu'on appelle le «digital labor», et dresse un constat alarmant."
Aurialie Jublin

Artificial Intelligence & Human Rights | Berkman Klein Center - 0 views

  •  
    L'intelligence artificielle (IA) est en train de changer le monde sous nos yeux. Le potentiel que présente l'IA pour améliorer nos vies est énorme. Des systèmes reposant sur l'IA sont déjà plus performants que des médecins spécialistes pour diagnostiquer certaines maladies, tandis que l'utilisation de l'IA dans le système financier élargit l'accès au crédit à des emprunteurs qui étaient autrefois ignorés. Toutefois, l'IA présente aussi des inconvénients qui viennent assombrir son potentiel considérable. Les systèmes reposant sur l'IA ont une incidence sur le droit à la vie privée étant donné qu'ils dépendent de la collecte et de l'utilisation de vastes quantités de données pour faire des prédictions qui, dans de nombreux cas, ont pour effet de perpétrer des tendances sociales de préjugés et de discrimination. Ces possibilités dérangeantes ont donné lieu à un mouvement qui cherche à intégrer des considérations éthiques dans le développement et la mise en œuvre de l'IA. Ce projet, en revanche, démontre l'utilité considérable d'utiliser la législation sur les droits de la personne pour évaluer et aborder les répercussions complexes de l'IA sur la société. La législation sur les droits de la personne fournit un ensemble de normes communément admis et un langage commun ainsi qu'une infrastructure institutionnelle pour contribuer à faire en sorte que le potentiel de l'IA soit réalisé et que ses plus grands périls soient évités. Notre projet vise à faire progresser la conversation émergente sur l'IA et les droits de la personne en évaluant les répercussions sur les droits de la personne de six utilisations courantes de l'IA. Notre cadre de travail reconnaît que les systèmes d'IA ne sont pas déployés sur un canevas vierge, mais plutôt sur la toile de fond de conditions sociales qui ont elles-mêmes des répercussions complexes préexistantes sur les droits de la personne
Aurialie Jublin

Réguler Internet par la décentralisation - La Quadrature du Net - 0 views

  • Pour compenser cette « règle » qui rendrait la haine et le conflit rentables, le gouvernement veut renforcer les obligations imposées aux plateformes géantes qui en profitent : transparence et devoir de vigilance accrus. Pourquoi pas (cela peut être fait de façon plus ou moins pertinente, nous y reviendrons plus tard). Mais cette solution ne suffira jamais à contrer à elle seule les dérives permises par la « rentabilité du conflit ». Et il est illusoire d’imaginer, comme le fait le rapport cité ci-dessus, qu’on pourrait atténuer ce problème en mettant un juge derrière chaque diffamation ou injure prononcée sur Internet. Il y en a bien trop. Non, si on veut traiter le problème sérieusement, c’est l’ensemble de l’économie de l’attention qu’il faut remettre en question. Et cela doit passer par l’émergence d’alternatives saines qui reposent sur un autre modèle que celui des GAFAM.
  • En pratique, à La Quadrature du Net, nous avons songé à devenir un hébergeur de vidéos (en autorisant tout le monde à mettre en ligne des vidéos sur notre service de streaming Peertube). Ce serait une façon concrète de participer à la construction d’une alternative à Youtube, qui ne tirerait aucun profit des discours conflictuels ou de la surveillance de masse. Mais nous avons dû y renoncer. Nous n’avons pas du tout assez de juristes pour évaluer quelles vidéos seraient « manifestement illicites ». Nous n’avons pas les moyens de supporter des amendes en cas de plaintes. Youtube reste maître.
  • Si le gouvernement veut effectivement lutter contre la diffusion de « contenus haineux et extrêmes », il doit changer le droit pour favoriser le développement d’alternatives à l’économie de l’attention. Voici notre proposition. Premièrement, que les hébergeurs ne soient plus soumis aux mêmes obligations que les plateformes géantes, qui régulent les informations de façon active pour leurs intérêts économiques. Secondement, que les hébergeurs neutres, qui ne tirent aucun profit en mettant en avant de tel ou tel contenu, ne supportent plus la charge d’évaluer si un contenu est « manifestement illicite » et doit être censuré. Seul un juge doit pouvoir leur exiger de censurer un contenu.
  • ...2 more annotations...
  • Dans le cadre de la loi, chaque hébergeur applique ses propres règles de modération, plus ou moins stricte, et chaque personne choisit l’espace de discussion adapté à ses besoins et à ses envies. La liberté de ce choix est renforcée par le développement des standards de « réseaux sociaux décentralisés », notamment du standard ActivityPub publié en janvier 2018 par le World Wide Web Consortium (W3C, à l’origine des standards du Web) et déjà appliqué par Mastodon (alternative à Twitter) ou Peertube. Ces standards permettront à une infinité d’hébergeurs de communiquer entre eux, selon les règles de chacun. Ils permettront aussi à chaque personne de passer librement d’un hébergeur à un autre, d’un jeu de règles à un autre (ce que les plateformes géantes font tout pour empêcher aujourd’hui).
  • Si le gouvernement veut mieux réguler le Web, il doit le faire sérieusement. En se contentant d’alourdir les obligations des géants, son action restera superficielle. Pour agir en profondeur et sur le long terme, sa démarche doit aussi être constructive, favorisant le développement de modèles vertueux.
  •  
    "La directive droit d'auteur et les récents débats sur les « fausses informations » ont servi d'introduction au débat général sur la régulation du Web, tel qu'il s'annonce pour l'année à venir. Aujourd'hui, La Quadrature du Net présente ses propositions concrètes."
Aurialie Jublin

dWeb : vers un web (à nouveau) décentralisé ? | InternetActu.net - 0 views

  • Les partisans du web décentralisé, explique Corbyn, souhaitent promouvoir et développer un web qui ne dépendrait plus des grandes entreprises qui amassent nos données pour en tirer profit. Pour ses promoteurs (parmi lesquels on trouve Tim Berners-Lee, Brewster Kahle ou Ted Nelson…), l’enjeu est de revenir à un web originel, avant qu’il ne soit perverti par les grandes plateformes qui ont émergé avec le web 2.0. Redistribuer le web afin que les utilisateurs gardent le contrôle de leurs données, interagissent et échangent des messages directement avec les autres membres du réseau sans passer par des services centralisés : tel est l’enjeu du dWeb.
  • Dans une série de billets un peu techniques présentant des applications concrètes de ce nouveau web décentralisé, on découvre plusieurs solutions émergentes comme Scuttlebutt, un réseau social décentralisé qui repose sur un protocole chiffré qui permet de stocker ses messages en local afin de les partager avec d’autres utilisateurs en pair à pair ; WebTorrent, un lecteur de torrent qui fonctionne dans le navigateur ; ou encore IPFS, un protocole pour remplacer le protocole HTTP du web…
  • Si ce web décentralisé est encore balbutiant, ce mouvement a été largement renouvelé par le développement des protocoles blockchain. De nouvelles applications sont apparues, comme Stealthy (un système de messagerie instantanée décentralisée), OpenBazaar (une place de marché décentralisée), GraphiteDocs (une alternative à Google Doc), Textile (une alternative à Instagram), Matrix (une alternative à Slack), DTube (une alternative à YouTube)… On y trouve aussi bien sûr les alternatives décentralisées aux réseaux sociaux que sont Akasha et Diaspora… Et même un navigateur pour explorer le web en pair à pair : Beaker Browser basé sur le protocole dat (voire les explications).
  • ...13 more annotations...
  • Cet espace ressemble plutôt à une niche de geeks, à l’image des vidéos que l’on trouve sur DTube. La contestation de la centralisation ne suffira pas à faire décoller ce nouvel attrait pour la décentralisation, pointait-il avec pertinence.
  • Dans cet essai, intitulé « Information Civics » (qu’on pourrait traduire par la citoyenneté de l’information ou par l’éducation civique des réseaux), Frazee invite à reprendre le pouvoir sur les grands réseaux sociaux. Il rappelle combien nous sommes déconnectés de la gouvernance des grandes plateformes et que cette déconnexion est ce qui motive la réponse proposée par la décentralisation.
  • Paul Frazee rappelle néanmoins que toute décentralisation n’est pas démocratique pour autant. Il égratigne notamment la gouvernance de Bitcoin qui est plus ploutocratique qu’autre chose, donnant le pouvoir à ceux qui ont le plus de capital. Etherum a provoqué la colère de nombre de ses membres lorsque l’état du registre a été modifié pour contrer un piratage. Pour Frazee, cet exemple est également la preuve que des autorités existent en dehors du code du protocole. « Ces controverses montrent que nous pourrions avoir une vision incomplète de la gouvernance et de l’autorité ».
  • Peut-on considérer la décentralisation comme étant simplement une élimination de toute autorité ? Si c’était le cas, nous n’aurions pas à discuter d’éducation civique aux réseaux, estime-t-il. Pour lui, la décentralisation ne peut pas seulement reposer sur la maximalisation de la répartition du pouvoir, au risque de donner plus de pouvoir à certains qu’à d’autres.
  • Dans les applications centralisées comme Facebook ou Google, toute autorité est confiée au serveur. Pour Frazee, ils sont par essence des services autoritaires. Les utilisateurs n’ont aucun mécanisme à leur disposition pour contraindre ou ignorer les décisions du serveur. Aucune loi ne restreint la puissance du serveur. Dire qu’ils sont autoritaires n’est pas les dénigrer, c’est décrire leur conception politique. Cet autoritarisme est particulièrement saillant lors de controverses, comme lors de mécontentement des utilisateurs dû à des changements d’interfaces, lors de colères contre les politiques de modération, la conception d’algorithmes, le placement publicitaire ou l’utilisation des données personnelles des utilisateurs… Mais au-delà de leur indignation, les utilisateurs n’ont aucun pouvoir sur ces politiques autoritaires, qui, si elles apportent du confort, apportent aussi leur lot d’anxiété quant à la manipulation, la surveillance ou la censure. Dans ce système politique, pour l’utilisateur, se révolter consiste à changer de service, bien souvent au détriment de leurs données – perdues -, ce qui ne laisse en fait pas beaucoup de place à la révolte. En passant d’un service à un autre, « les utilisateurs ne trouvent aucune libération politique ».
  • Proposer des alternatives nécessite donc de distribuer l’autorité, à l’image des services P2P, des services d’adressage chiffrés, des blockchains… Chacune de ces méthodes n’empêche pas l’utilisation de serveurs centraux ni la formation d’autorités, mais vise à les réduire. Proposer de nouvelles applications nécessite également de nouveaux protocoles qui sont plus lents à changer et à se déployer. Mais au-delà des défis techniques et sociaux liés à la mise en application, il existe des défis politiques liés à trouver des accords sur ces nouvelles normes tout comme à trouver des processus de partage de pouvoir qui ne provoquent pas de dysfonctionnements.
  • Pour y remédier, Frazee propose de s’appuyer sur des « protocoles de réseaux constitutionnels », c’est-à-dire des protocoles qui appliquent automatiquement le code, comme dans les contrats intelligents. Le code est alors une constitution parce qu’elle fournit les règles pour le fonctionnement de l’autorité et que les utilisateurs peuvent s’assurer à tout moment que la constitution est respectée. « Le constitutionnalisme de réseaux a pour effet de transférer l’autorité de l’opérateur au code » : elle assure du processus, décrit des autorités et limites leurs possibilités d’action.
  •  Je crois en l’engagement civique. Nous disposons d’outils puissants qui encodent des valeurs et des droits. Nous devons transformer les architectures de pouvoir qui sont les nôtres. »
  • Pour améliorer la structure civique du web – le rendre plus démocratique -, il faut donc rééquilibrer les droits. Peut-on permettre que les clients (c’est-à-dire les ordinateurs de chacun) aient plus de droits que les serveurs, qu’ils aient le droit de publier, le droit d’avoir une identité, le droit de déployer du code (pour décider de comment ils souhaitent que leurs applications fonctionnent) ? Seuls les réseaux pair-à-pair déploient des noeuds avec des droits égaux, rappelle-t-il. Cette question n’est pas qu’une question technique, estime Frazee, c’est une question démocratique, une question civique. Les techniciens n’ont pas à résoudre les problèmes pour les gens, mais à laisser les gens résoudre ces problèmes comme ils veulent.
  • En février, l’entrepreneur et investisseur Chris Dixon (@cdixon) était déjà revenu sur l’importance de la décentralisation. Il rappelait que le premier internet était basé sur des protocoles décentralisés, mais qu’il avait été dépassé dans les années 2000 par des services qui avaient supplanté les capacités des protocoles ouverts, comme ceux des majors du web. Pour lui aussi, la centralisation est l’une des causes des tensions sociales qui s’expriment aujourd’hui que ce soit la désinformation, la surveillance, les brèches de données… Pour autant, souligne-t-il, les réseaux décentralisés ne résoudront pas tous les problèmes.
  • Pour Primavera De Filippi (@yaoeo) – qui a publié avec Aaron Wright, Blockchain and the law ainsi qu’un Que-sais-Je ? sur ces sujets -, le web décentralisé pose également des défis juridiques et de gouvernance : qui est responsable des problèmes quand tout est décentralisé ?
  • Comme elle le souligne en conclusion de son livre, si ces systèmes promettent d’améliorer la société, ils pourraient également restreindre plus que renforcer l’autonomie et la liberté des individus. L’hypothèse qui veut que la règle du code soit supérieure à celle du droit n’est pas sans poser problème. Comme Lawrence Lessig l’a déjà dit : « Quand le gouvernement disparaît, ce n’est pas comme si le paradis allait prendre sa place. Quand les gouvernements sont partis, d’autres intérêts prendront leur place. » Pour Primavera de Filippi et Aaron Wright, le déploiement de systèmes autonomes régulés seulement par le code nous pose de nouveaux défis de responsabilité.
  • Comme le dit Yochai Benkler : «Il n’y a pas d’espace de liberté parfaite hors de toute contrainte ». Tout ce que nous pouvons faire est de choisir entre différents types de contraintes. (…) Les applications décentralisées basées sur une blockchain pourraient bien nous libérer de la tyrannie des intermédiaires centralisés et des autorités de confiance, mais cette libération pourrait se faire au prix d’une menace beaucoup plus grande encore : celle de la chute sous le joug de la tyrannie du code. »
  •  
    "La journaliste Zoë Corbyn, pour le Guardian est revenue sur le Sommet pour un web décentralisé (vidéos), qui se tenait début août à San Francisco."
Aurialie Jublin

Règlement terroriste - La Quadrature du Net - 0 views

  • Délégation de la censure aux géants du Web D’un point de vue technique, économique et humain, seule une poignée d’acteurs – les géants du Web – pourront respecter des obligations aussi strictes. Les autres acteurs (commerciaux ou non) n’auront d’autre choix que de cesser leurs activités ou de se soumettre aux outils de modération (filtrage automatique et listes de blocage) développés par Facebook et Google depuis 2015 avec le soutien de la Commission européenne. Ces multinationales deviendront donc les juges de ce qui peut être dit sur Internet. La structure riche, variée et décentralisée du Web est vouée à disparaître.
  • Une loi inutile Ce règlement « anti-terroriste » ne permettra même pas d’atteindre son objectif affiché : empêcher que DAESH ou Al Qaeda diffusent leur propagande auprès des personnes déjà séduites par leurs discours. Il semble absurde de devoir encore le répéter : sur Internet, n’importe quelle loi de blocage peut être contournée par les personnes qui souhaitent accéder aux informations censurées. Les seuls effets de cette loi seront ses dommages collatéraux : le grand public n’aura certes plus à subir les contenus terroristes, mais il n’aura plus connaissance non plus des informations censurées abusivement.
  •  
    "En septembre 2018, sous l'influence de la France et de l'Allemagne, la Commission européenne a proposé un règlement « relatif à la prévention de la diffusion en ligne de contenus à caractère terroriste ». Ce nouveau règlement imposera à tout acteur du Web (hébergeurs de blog ou de vidéos, sites de presse, petits forums ou grands réseaux sociaux) de : Bloquer en une heure n'importe quel contenu signalé comme « terroriste » par la police (sans l'autorisation préalable d'un juge), et donc se tenir à sa disposition 24h/24 et 7j/7. Devancer les demandes de la police en détectant lui-même les contenus illicites à l'aide d'outils de filtrage automatisé. Si un site ne respecte pas ces règles, il risque une amende jusqu'à 4 % de son chiffre d'affaires."
Aurialie Jublin

[Réseau social] Cher Bilal Hassani. - affordance.info - 0 views

  • "Ce qui n'est pas compliqué c'est de fermer, simplement et définitivement les comptes de celles et ceux qui participent à des "raids numériques" appelant au viol de telle ou telle journaliste ou déniant à une ancienne actrice porno le droit d'avoir un enfant. Ce qui n'est pas compliqué c'est de fermer définitivement les comptes de celles et ceux qui utilisent le mot "crouille" ou "bougnoule" ou "PD" ou "sale fiotte" à longueur de tweets. Ces mots là sont la caractérisation en droit d'insultes à caractère raciste ou homophobe. Et en France, le racisme et l'homophobie ne sont pas des opinions mais des délits.  Et inutile de crier au risque d'une censure arbitraire et laissée aux mains des plateformes : je ne parle pas ici de comptes qui pourraient occasionnellement évoquer une imagerie nazi comme ce fut le cas de nombreux d'entre nous ces derniers jours suite à la Une polémique du Magazine du Monde, comptes et contenus qui sont d'ailleurs tout à fait improprement et aléatoirement bloqués dès qu'ils osent évoquer le mot nazi. Je parle des comptes d'authentiques sexistes, homophobes, racistes, antisémites et autres admirateurs assumés du 3ème Reich ou des pires dérives et appel à la haine de l'extrême droite. Les grandes plateformes disposent de l'historique complet de publication de ces comptes là. Elles disposent de technologies d'analyse linguistique qui leur permettent d'identifier et de recouper ces occurrences de la haine ou de l'incitation à la haine assumée. Elles pourraient, si elles disposaient d'un minimum d'éthique, faire travailler des modérateurs humains disposant des codes culturels permettant de contextualiser correctement ces dérives plutôt que de continuer d'exploiter des travailleurs pauvres aux Philippines pour ce travail de modération.   
  • Etes-vous prêt à réellement lutter contre les discours de haine, contre l'homophobie, en ajoutant dans vos CGU que chaque insulte raciste ou homophobe occasionnera la fermeture définitive du compte qui les a proférées ? Etes-vous prêt à perdre ces "clients" là qui ne sont pas, pour vous, anonymes, et qui ne l'ont jamais été ?
  •  
    "C'est donc vous qui représenterez la France au concours le plus kitch de la galaxie connue. Depuis déjà trop longtemps mais particulièrement depuis que vous avez été choisi parmi d'autres candidats vous êtes la cible d'insultes homophobes (et racistes) avec une fréquence et un systématisme ahurissant. Ils ne sont qu'une goutte dans l'océan de louange qui vous enveloppe, mais cette goutte est un poison dont on ne peut qu'imaginer à quel point il est violent. Pour vous protéger tant bien que mal vous avez recours à un service qui permet de supprimer, d'invisibiliser les commentaires haineux (service intitulé Bodyguard). Et vous avez décidé de porter plainte. Et vous avez bien fait. Que peut-on faire d'autre d'ailleurs ? "
1 - 7 of 7
Showing 20 items per page