29
Commentaires

Algospeak : les influenceurs, bilingues en censure automatisée

Pour échapper aux robots-censeurs, les utilisateurs de TikTok et d'Instagram ont développé leur propre dialecte : l'algospeak. Une nouvelle preuve que, sur internet, même le langage a été privatisé.

Commentaires préférés des abonnés

La modération humaine aurait elle vraiment des chances de se montrer moins "orwelienne", sachant qu'elle serait basée sur les mêmes règles, à part qu'elle attraperait plus facilement les utilisateurs de termes détournés ?


Les employés humains des firm(...)

Dans les effets pervers listés dans la dernière partie, il me semble qu'il en manque un de taille : le fait d'habituer les internautes (et notamment les plus jeunes) a un rapport puritain au langage et au monde.


Parce que ce genre de choses...


> Rem(...)

Il existe pourtant une solution évidente, rappelle le journaliste Clive Thompson sur OneZero: revenir à une modération humaine, quitte à forcer les plateformes à embaucher beaucoup, beaucoup de monde. 



Non, tout simplement non:

1) même avec dix mi(...)

Derniers commentaires

Brillant ! Merci pour cet article et pour la qualite des commentaires qu'il suscite.

Voté ! Merci pour ce regard panoramique. 

très intéressant sur le plan linguistique 


après, rien de bien nouveau : censure -> créativité pour la contourner (le 1er exemple qui me vient, c'est celui du code Hays pour le cinéma américain)


là, y aurait bien une solution radicale : supprimer les réseaux sociaux et autres activités en ligne à but lucratif ! hahaha on y croit xD



Une fois n'est malheureusement pas coutume chez ASI, mais le terme «influenceur» est utilisé n'importe comment.


« Si les mots de l'argorithme, portés sans le vouloir par une classe littéralement définie par sa capacité d'influence – les "influenceurs" »


C'est absurde, comme définition, si c'était le cas, n'importe quelle personne ayant une quelconque audience (politique, penseur, journaliste, artiste, etc.) serait un influenceur. Ce terme n'a pas été créé pour traiter de la capacité d'influence d'une personne mais pour qualifier un métier, qui consiste à vendre sa capacité d'influence auprès de marques. De fait leur production consiste principalement en des recommandation d'achats et de commentaires sur des produits, on ne parle pas juste de mettre une pub avant une vidéo. Leur méthode principale est le placement de produit, la pub sans en avoir l'air.


Comme première image, en-dessous du titre «influenceurs» vous mettez des captures d'écran d'Hugo Travers, qui pourtant correspond plus à un journaliste qu'à un influenceur. Pourquoi serait-il plus influenceur que Thibault Prévost, qui est aussi sur Internet?

Merci pour cet article et pour le néologisme !


Pour la conclusion, je plussoie Carnéade et Tristan, je ne vois pas bien comment il serait "humainement" possible de modérer nos réseaux. 


D'ailleurs cette idée me fait penser à Mechanical Turk où l'ouvrier invisible et aliéné ; Amazon me direz-vous. 


(Pour les curieuses et curieux, article de Les Jours à ce sujet.)

Cet article = classe de maître notamment b+ rat10

Dans les effets pervers listés dans la dernière partie, il me semble qu'il en manque un de taille : le fait d'habituer les internautes (et notamment les plus jeunes) a un rapport puritain au langage et au monde.


Parce que ce genre de choses...


> Remplacer une voyelle par une étoile semble également suffire : c'est ce que fait la youtubeuse et tiktokeuse Simplement Débora, obligée de se censurer y compris dans la piste audio de ses vidéos (!) pour parler s*xualité et B*SM.

... n'est absolument pas nouveau. C'est déjà la dérive complètement tarée des médias américains depuis des décennies, qui vont mettre des étoiles au sein de leurs articles ou dans leur titres (pas une question de référencement, donc), et biper les gros mots qu'on entend à la télévision. On est dans une pensée infantilisante terminale, où "hihi j'ai dit le mot tabou sans le dire", ou "'ouhlala j'ai pêché mais en fait non !". On est les deux pieds chez le pasteur, en privant totalement la personne d'être un sujet pensant, qui décide de son registre de langage, et d'agir comme un adulte qui sait ce qu'implique d'utiliser un gros mot.

C'est aussi, plus simplement (et on revient au système de censure du cinéma américain, qui compte névrotiquement les gros mots mais laisse passer des torrents de violence sans sourciller), une manière hypocrite de déplacer le scandale sur le mot, et non sur ce qu'on dit. Prononcer le mot "viol" est interdit, par contre que ça se passe dans l'ombre c'est pas grave du tout - si on en parle pas, ça n'existe pas.

Bref, oui, pour moi, il y a un effet pervers majeur à l'algospeak : celui d'habituer toute une génération à écrire "s*xe" au lieu de "sexe", comme si ce mot était sale (et on le voit déjà sur les forums qui pourtant ne pratiquent pas ce genre de censure). Ce n'est qu'une question d'années avant que les émissions débiles du Paf style Hanouna se mettent à biper les gros mots (si ce n'est déjà fait)... Que ça nous vienne des USA, et que ça importe avec soi toutes les névroses délirantes de ce pays, n'est malheureusement pas une surprise.



Ça m'évoque le réseau comme d'habitude oublié par ASI, reddit (oui c'est mon réseau addictif préféré à moi, na).


Là bas "l'argorithme" (plus rare puisque réservé à cet usage) vise moins à pouvoir aborder des sujets qui seraient interdits (très peu étant globalement exclus) qu'à contourner un certain nombre de choix (ou rumeurs de choix) relevant du politiquement correct de la modération, ou à esquiver ses opérations de lutte contre le "hate speech".


Par exemple l'emploi fréquent de r-slurred ou r-word pour "retard"/"retarded" est la conséquence d'un certain nombre de personnes qui se seraient retrouvées brutalement bannies du site par des administrateurs au prétexte de l'emploi de ce terme "abléiste", pourtant ultra répandu en anglais pour dire qu'un truc est débile* plus que pour s'en prendre aux personnes handicapées (* ok c'est tout aussi abléiste en vf mais bon).


Cette politique découlant probablement de l'affaire du forum d'investisseurs de reddit r/WallStreetBets, qui en sauvant la chaine de jeux vidéo Gamestop avait nui aux intérêts de gros hedge funds et entrainé un certain nombre d'articles à charge contre eux et reddit par extension, qui faute d'arriver à les mouiller dans accusations de manipulation des marchés, n'avaient trouvé à leur reprocher que de multiplier les jeux de mots sur "retarded" (qui signifie aussi retarder un ordre boursier). L'administration de reddit aurait alors décidé de faire quelques exemples pour raréfier les emplois de ce terme.


Un point intéressant étant qu'on ne parle pas ici d'une règle absolue qui serait systématiquement appliquée par un algorithme (vu qu'on peut croiser à l'occasion des gens employant toujours "retard", et qui ne semblent pas se faire bannir automatiquement pour un simple usage de ce terme), mais d'une interdiction à géométrie variable et probablement basée sur de la modération humaine. 

A savoir l'équipe "anti-evil-operations", des employés du site chargés de lutter contre le hate speech qui s'intéresseraient* aux posts contenant certains mots clefs et feraient des exemples pour faire baisser tel ou tel type de discours problématique, en fonction des besoins de reddit pour éviter mauvaise presse.


Ce qui fait qu'il y a un certain nombre de termes, typiquement désignant des minorités, qui tout en étant tout à fait autorisés, tendent à être remplacés par de l'argorithme par les plus habitués des propagateurs de discours haineux, étant supposés surveillés par ces super-modérateurs, susceptibles d'intervenir si la personne qui les emploie ne le faisait pas de manière positive.


On peut reconnaitre, par exemple, une personne s’apprêtant à tenir un propos transphobe avant même qu'elle émette un propos transphobe au fait qu'elle évitera généralement le terme "trans" pour employer plutôt une longue liste de d'argorithmes dérivés (trains, tr*ns, the t group, the t-word, etc), supposé moins surveillé que le terme pourtant tout à fait autorisé qu'elle pourrait employer pour dire la même chose.


Pareil pour "roms"/"romani", les gens voulant dire tout le mal qu'ils pensent des gens du voyage, les appelleront plutôt "voyagers" ou "travellers" (autres termes neutres mais plus durs à traquer), ou sinon "g*psies" ou "pkeys", des dérivés de termes péjoratifs, mais éviteront systématiquement l'appellation supposée la plus surveillée.


Il y a aussi des sujets, comme les violences sexuelles considérés susceptibles d'être surveillés, entrainant des amateurs d'humour douteux sur ce thème à préférer employer "r*pe" ou "forced consent".

 

 (toutes choses ne s'appliquant pas par contre au reddit francophone ou d'autres langues non anglaises, par contre, où on ne croise quasiment jamais d'argorithmes, l'administration du site semblant ne jamais y intervenir)


* conditionnel, car sauf à être dans le secret des dieux il est très difficile de savoir comment fonctionne cette équipe, ni même si sa surveillance de certains mots clefs ne relève pas de la légende urbaine

«Bref, oui, pour moi, il y a un effet pervers majeur à l'algospeak : celui d'habituer toute une génération à écrire "s*xe" au lieu de "sexe", comme si ce mot était sale»


Autant ce puritanisme des plateformes est ridicule, autant il ne faut pas leur donner plus de pouvoir qu'elles n'en ont. Dès la petite enfance en provoquant des rires ou des gênes en parlant de pipi, un enfant commence son apprentissage des mots et expressions délicates. En atteignant l'âge adulte la plupart savent manier divers registres conversationnel, et savent à peu près quels mont sont à éviter en quelles circonstances. Que l'on soit en entretien d'embauche, en cours, en représentation, en discusssion avec un inconnu, un ainé, un dignitaire quelconque. Ce qui n'empêche personne de jurer comme un charretier avec ses amis.

La modération humaine aurait elle vraiment des chances de se montrer moins "orwelienne", sachant qu'elle serait basée sur les mêmes règles, à part qu'elle attraperait plus facilement les utilisateurs de termes détournés ?


Les employés humains des firmes auxquels les RS sous-traitent la part de modération qu'ils ne peuvent pas confier à des algorithmes, ne semblent pas avoir un avis très positif du travail qu'on leur demande de faire. En plus de finir souvent avec des troubles mentaux liés au nombre d'images hyper violentes qu'ils ont à traiter à l'heure, ils n'ont absolument pas de latitude pour se montrer plus "humains" qu'un algorithme, la priorité des réseaux semblant être que leur modération soit basée sur des règles strictement appliquées par tous ceux qui s'en chargent pour éviter d'être trop accusés de géométrie variable (en dehors des comptes célèbres pour lesquels ils le pratiquent).


C'est ce qui conduit à plein d'incidents célèbres comme la censure d'images de sculptures classiques considérées comme pornographiques car montrant des parties génitales sur facebook. bien avant d'en charger des outils numériques d'analyse d'image (quant à la seule chose qui ait changé elle est indépendante du coté humain ou pas de la modération, c'est qu'après des années à se faire moquer pour sa pudibonderie, facebook a légèrement adouci ses règles en matière de part de la surface d'une image entrainant qu'elle soit considérée pornographique, truc que la modération algorithmique basée sur de l'analyse d'image sait tout à fait appliquer).


En résumé la seule chose qui pourrait changer la politique de modération des réseaux, c'est... un changement de la politique de modération des réseaux. L'existence de modérateurs humains, sauf à vouloir perdre son taf pour faute, ne pourrait changer leurs règles que s'ils passaient de critères de modérations formels à des critères de fond.


Mais serait il réellement souhaitable, que ce soit pour les réseaux eux mêmes (qui ne veulent pas s'assumer comme médias ayant une ligne éditoriale) ou la pluralité des opinions qu'ils permettent de s'y exprimer, qu'ils se mettent à modérer sur le fond, et donc à favoriser certaines plutôt que d'autres ?


Certains peuvent le croire, mais perso j'aurais tendance à penser que ce serait plutôt sinon encore plus orwellien au moins plus huxleyien d'offrir à ces méga-corporations un prétexte pour décider de quelles idées pourraient être exprimées (et en étant bien plus efficaces pour éliminer toutes celles qui ne seraient pas autorisées), plutôt que simplement quels sujets sont à éviter (et seulement si on ne veut pas avoir à mettre des * dans un mot).


La solution s'il y en a une ne peut exister tant qu'il n'y a pas destruction du pouvoir capitaliste sur ces réseaux, pour le remplacer, par un contrôle démocratique de ces places publiques, qu'elles soient administrées par des algorithmes ou de la modération humaine. 


Je ne vois pas comment on pourrait considérer qu'il existe une "bonne option" en la matière dans un contexte où leurs règles resteraient déterminées par des intérêts privés (ce qui est le cas si grands soient leurs efforts pour mettre en avant des comités théodule d'éthique etc... dont les membres ne sont jamais que des gens nommés par eux, et typiquement sans grand pouvoir, dès qu'une décision impacterait sérieusement un réseau).

Excellent article. A voté pour qu'il soit en accès libre. C'est d'intérêt général.

Nos libertés ne seront plus qu'une illusion

Comme vous dîtes un futur Orwellien.

J'aime décidément vos chroniques ! Au côté "clic gauche", vous n'oubliez jamais l'humain

Ce message a été supprimé suite à la suppression du compte de son auteur

Il existe pourtant une solution évidente, rappelle le journaliste Clive Thompson sur OneZero: revenir à une modération humaine, quitte à forcer les plateformes à embaucher beaucoup, beaucoup de monde. 



Non, tout simplement non:

1) même avec dix millions de modérateurs, modérer tous les réseaux sociaux serait impossible vu la quantité de contenus produits chaque seconde. Et ce ne serait absolument pas viable économiquement

2) la modération humaine n'est pas "meilleure" que la modération algorithmique: elle est tout aussi stupide, intolérante, arbitraire, biaisé que les algorithmes, et même peut être plus

3) je préfère une censure facilement évitable (entre autre grâce à cet "argorithme"). La censure humaine a un intérêt (notamment pour ce qui relève de l'appréciation de contenus illicites) mais si c'est pour traquer les "sujets sensibles" (le porno, la politique, etc) je préfère la version "low cost" de la "censure" par des algos.




DÉCOUVRIR NOS FORMULES D'ABONNEMENT SANS ENGAGEMENT

(Conditions générales d'utilisation et de vente)
Pourquoi s'abonner ?
  • Accès illimité à tous nos articles, chroniques et émissions
  • Téléchargement des émissions en MP3 ou MP4
  • Partage d'un contenu à ses proches gratuitement chaque semaine
  • Vote pour choisir les contenus en accès gratuit chaque jeudi
  • Sans engagement
Devenir
Asinaute

5 € / mois
ou 50 € / an

Je m'abonne
Asinaute
Généreux

10 € / mois
ou 100 € / an

Je m'abonne
Asinaute
en galère

2 € / mois
ou 22 € / an

Je m'abonne
Abonnement
« cadeau »


50 € / an

J'offre ASI

Professionnels et collectivités, retrouvez vos offres dédiées ici

Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.