29
Commentaires

Algospeak : les influenceurs, bilingues en censure automatisée

Pour échapper aux robots-censeurs, les utilisateurs de TikTok et d'Instagram ont développé leur propre dialecte : l'algospeak. Une nouvelle preuve que, sur internet, même le langage a été privatisé.

Commentaires préférés des abonnés

La modération humaine aurait elle vraiment des chances de se montrer moins "orwelienne", sachant qu'elle serait basée sur les mêmes règles, à part qu'elle attraperait plus facilement les utilisateurs de termes détournés ?


Les employés humains des firm(...)

Dans les effets pervers listés dans la dernière partie, il me semble qu'il en manque un de taille : le fait d'habituer les internautes (et notamment les plus jeunes) a un rapport puritain au langage et au monde.


Parce que ce genre de choses...


> Rem(...)

Il existe pourtant une solution évidente, rappelle le journaliste Clive Thompson sur OneZero: revenir à une modération humaine, quitte à forcer les plateformes à embaucher beaucoup, beaucoup de monde. 



Non, tout simplement non:

1) même avec dix mi(...)

Derniers commentaires

Brillant ! Merci pour cet article et pour la qualite des commentaires qu'il suscite.

Voté ! Merci pour ce regard panoramique. 

très intéressant sur le plan linguistique 


après, rien de bien nouveau : censure -> créativité pour la contourner (le 1er exemple qui me vient, c'est celui du code Hays pour le cinéma américain)


là, y aurait bien une solution radicale : supprimer les réseaux sociaux et autres activités en ligne à but lucratif ! hahaha on y croit xD



Une fois n'est malheureusement pas coutume chez ASI, mais le terme «influenceur» est utilisé n'importe comment.


« Si les mots de l'argorithme, portés sans le vouloir par une classe littéralement définie par sa capacité d'influence – les "influenceurs" »


C'est absurde, comme définition, si c'était le cas, n'importe quelle personne ayant une quelconque audience (politique, penseur, journaliste, artiste, etc.) serait un influenceur. Ce terme n'a pas été créé pour traiter de la capacité d'influence d'une personne mais pour qualifier un métier, qui consiste à vendre sa capacité d'influence auprès de marques. De fait leur production consiste principalement en des recommandation d'achats et de commentaires sur des produits, on ne parle pas juste de mettre une pub avant une vidéo. Leur méthode principale est le placement de produit, la pub sans en avoir l'air.


Comme première image, en-dessous du titre «influenceurs» vous mettez des captures d'écran d'Hugo Travers, qui pourtant correspond plus à un journaliste qu'à un influenceur. Pourquoi serait-il plus influenceur que Thibault Prévost, qui est aussi sur Internet?

Merci pour cet article et pour le néologisme !


Pour la conclusion, je plussoie Carnéade et Tristan, je ne vois pas bien comment il serait "humainement" possible de modérer nos réseaux. 


D'ailleurs cette idée me fait penser à Mechanical Turk où l'ouvrier invisible et aliéné ; Amazon me direz-vous. 


(Pour les curieuses et curieux, article de Les Jours à ce sujet.)

Cet article = classe de maître notamment b+ rat10

Dans les effets pervers listés dans la dernière partie, il me semble qu'il en manque un de taille : le fait d'habituer les internautes (et notamment les plus jeunes) a un rapport puritain au langage et au monde.


Parce que ce genre de choses...


> Remplacer une voyelle par une étoile semble également suffire : c'est ce que fait la youtubeuse et tiktokeuse Simplement Débora, obligée de se censurer y compris dans la piste audio de ses vidéos (!) pour parler s*xualité et B*SM.

... n'est absolument pas nouveau. C'est déjà la dérive complètement tarée des médias américains depuis des décennies, qui vont mettre des étoiles au sein de leurs articles ou dans leur titres (pas une question de référencement, donc), et biper les gros mots qu'on entend à la télévision. On est dans une pensée infantilisante terminale, où "hihi j'ai dit le mot tabou sans le dire", ou "'ouhlala j'ai pêché mais en fait non !". On est les deux pieds chez le pasteur, en privant totalement la personne d'être un sujet pensant, qui décide de son registre de langage, et d'agir comme un adulte qui sait ce qu'implique d'utiliser un gros mot.

C'est aussi, plus simplement (et on revient au système de censure du cinéma américain, qui compte névrotiquement les gros mots mais laisse passer des torrents de violence sans sourciller), une manière hypocrite de déplacer le scandale sur le mot, et non sur ce qu'on dit. Prononcer le mot "viol" est interdit, par contre que ça se passe dans l'ombre c'est pas grave du tout - si on en parle pas, ça n'existe pas.

Bref, oui, pour moi, il y a un effet pervers majeur à l'algospeak : celui d'habituer toute une génération à écrire "s*xe" au lieu de "sexe", comme si ce mot était sale (et on le voit déjà sur les forums qui pourtant ne pratiquent pas ce genre de censure). Ce n'est qu'une question d'années avant que les émissions débiles du Paf style Hanouna se mettent à biper les gros mots (si ce n'est déjà fait)... Que ça nous vienne des USA, et que ça importe avec soi toutes les névroses délirantes de ce pays, n'est malheureusement pas une surprise.



La modération humaine aurait elle vraiment des chances de se montrer moins "orwelienne", sachant qu'elle serait basée sur les mêmes règles, à part qu'elle attraperait plus facilement les utilisateurs de termes détournés ?


Les employés humains des firmes auxquels les RS sous-traitent la part de modération qu'ils ne peuvent pas confier à des algorithmes, ne semblent pas avoir un avis très positif du travail qu'on leur demande de faire. En plus de finir souvent avec des troubles mentaux liés au nombre d'images hyper violentes qu'ils ont à traiter à l'heure, ils n'ont absolument pas de latitude pour se montrer plus "humains" qu'un algorithme, la priorité des réseaux semblant être que leur modération soit basée sur des règles strictement appliquées par tous ceux qui s'en chargent pour éviter d'être trop accusés de géométrie variable (en dehors des comptes célèbres pour lesquels ils le pratiquent).


C'est ce qui conduit à plein d'incidents célèbres comme la censure d'images de sculptures classiques considérées comme pornographiques car montrant des parties génitales sur facebook. bien avant d'en charger des outils numériques d'analyse d'image (quant à la seule chose qui ait changé elle est indépendante du coté humain ou pas de la modération, c'est qu'après des années à se faire moquer pour sa pudibonderie, facebook a légèrement adouci ses règles en matière de part de la surface d'une image entrainant qu'elle soit considérée pornographique, truc que la modération algorithmique basée sur de l'analyse d'image sait tout à fait appliquer).


En résumé la seule chose qui pourrait changer la politique de modération des réseaux, c'est... un changement de la politique de modération des réseaux. L'existence de modérateurs humains, sauf à vouloir perdre son taf pour faute, ne pourrait changer leurs règles que s'ils passaient de critères de modérations formels à des critères de fond.


Mais serait il réellement souhaitable, que ce soit pour les réseaux eux mêmes (qui ne veulent pas s'assumer comme médias ayant une ligne éditoriale) ou la pluralité des opinions qu'ils permettent de s'y exprimer, qu'ils se mettent à modérer sur le fond, et donc à favoriser certaines plutôt que d'autres ?


Certains peuvent le croire, mais perso j'aurais tendance à penser que ce serait plutôt sinon encore plus orwellien au moins plus huxleyien d'offrir à ces méga-corporations un prétexte pour décider de quelles idées pourraient être exprimées (et en étant bien plus efficaces pour éliminer toutes celles qui ne seraient pas autorisées), plutôt que simplement quels sujets sont à éviter (et seulement si on ne veut pas avoir à mettre des * dans un mot).


La solution s'il y en a une ne peut exister tant qu'il n'y a pas destruction du pouvoir capitaliste sur ces réseaux, pour le remplacer, par un contrôle démocratique de ces places publiques, qu'elles soient administrées par des algorithmes ou de la modération humaine. 


Je ne vois pas comment on pourrait considérer qu'il existe une "bonne option" en la matière dans un contexte où leurs règles resteraient déterminées par des intérêts privés (ce qui est le cas si grands soient leurs efforts pour mettre en avant des comités théodule d'éthique etc... dont les membres ne sont jamais que des gens nommés par eux, et typiquement sans grand pouvoir, dès qu'une décision impacterait sérieusement un réseau).

Excellent article. A voté pour qu'il soit en accès libre. C'est d'intérêt général.

Nos libertés ne seront plus qu'une illusion

Comme vous dîtes un futur Orwellien.

J'aime décidément vos chroniques ! Au côté "clic gauche", vous n'oubliez jamais l'humain

Ce message a été supprimé suite à la suppression du compte de son auteur

Il existe pourtant une solution évidente, rappelle le journaliste Clive Thompson sur OneZero: revenir à une modération humaine, quitte à forcer les plateformes à embaucher beaucoup, beaucoup de monde. 



Non, tout simplement non:

1) même avec dix millions de modérateurs, modérer tous les réseaux sociaux serait impossible vu la quantité de contenus produits chaque seconde. Et ce ne serait absolument pas viable économiquement

2) la modération humaine n'est pas "meilleure" que la modération algorithmique: elle est tout aussi stupide, intolérante, arbitraire, biaisé que les algorithmes, et même peut être plus

3) je préfère une censure facilement évitable (entre autre grâce à cet "argorithme"). La censure humaine a un intérêt (notamment pour ce qui relève de l'appréciation de contenus illicites) mais si c'est pour traquer les "sujets sensibles" (le porno, la politique, etc) je préfère la version "low cost" de la "censure" par des algos.




Abonnez-vous

En vous abonnant, vous contribuez à une information sur les médias indépendante et sans pub.