Reddit déploie un changement majeur de politique qui va fondamentalement modifier la façon dont les communautés se régulent elles-mêmes. À partir du 19 mars, les bots tiers ne seront plus autorisés à bannir automatiquement les utilisateurs simplement pour avoir posté dans certains subreddits. La plateforme affirme que cette mesure cible ce qu'elle appelle les bannissements de 'culpabilité par association'—punir les gens en fonction de l'endroit où ils ont été actifs, plutôt que de leur comportement réel dans une communauté spécifique.
Imaginez-vous être exclu d'un club de lecture parce que quelqu'un vous a vu dans un autre café. Reddit soutient que ces bannissements en masse créent une 'expérience confuse et perturbante' pour les utilisateurs, attrapant souvent des personnes bien intentionnées dans les tirs croisés. Ils ne peuvent pas faire la différence entre un visiteur curieux et un véritable fauteur de troubles, conduisant à une sur-application qui étouffe les discussions.
Le coût humain de l'application automatisée
Ce n'est pas seulement un problème théorique. En novembre 2024, le streamer populaire Asmongold s'est retrouvé instantanément banni à vie du subreddit Dragon Age—non pas pour ce qu'il y a dit, mais à cause de son association avec sa propre communauté, r/asmongold. C'est un exemple frappant de la façon dont ces bots opèrent : analysant les historiques des utilisateurs, prenant des décisions hâtives, et excluant les gens sans contexte.
Pour Reddit, l'aspect émotionnel ici concerne l'équité et l'appartenance. Lorsque les plateformes s'appuient trop sur l'automatisation, elles risquent de perdre la nuance qui fait fonctionner les communautés humaines. Un utilisateur pourrait participer à un subreddit controversé pour débattre, apprendre, ou même jouer l'avocat du diable—des motivations qu'un bot ne peut pas analyser. En réduisant l'utilisation de ces outils, Reddit parie qu'une modération plus personnalisée conduira à des discussions plus saines et plus engagées.
Les modérateurs résistent : 'Cela va libérer le harcèlement'
Ce n'est pas tout le monde qui célèbre. L'annonce a suscité de vives critiques de la part des modérateurs bénévoles qui dépendent de ces bots pour gérer de grandes communautés, souvent vulnérables. Beaucoup soutiennent que les bannissements automatisés sont une défense nécessaire contre les campagnes de harcèlement coordonnées qui s'étendent sur plusieurs subreddits.
'Cela ne va-t-il pas augmenter massivement la charge de travail des modérateurs sur, par exemple, les subreddits LGBT+ ?' a demandé un utilisateur de Reddit dans le fil de l'annonce. Un autre a averti que 'les grands subreddits auront d'énormes problèmes de harcèlement', soulignant que les outils de signalement existants de Reddit pour le brigading semblent souvent inefficaces.
La peur est palpable : sans ces bots, les modérateurs des communautés ciblées seront submergés en essayant d'identifier et de bloquer manuellement les mauvais acteurs. C'est une question de charge de travail, mais aussi émotionnelle—protéger les espaces sûrs des trolls est épuisant, et de nombreux mods estiment que Reddit supprime une ligne de défense critique.
Les outils alternatifs de Reddit : une solution ou un palliatif ?
En réponse à ces préoccupations, Reddit oriente les modérateurs vers sa suite de modération intégrée : des outils comme le Filtre de harcèlement, le Contrôle de foule, le Filtre de réputation et le Filtre de contournement de bannissement. La plateforme suggère que ceux-ci peuvent aider à gérer les communautés sans s'appuyer sur des bannissements généraux basés sur l'activité ailleurs.
Mais pour de nombreux mods, ce n'est pas suffisant. Ils soutiennent que ces outils manquent du pouvoir proactif et étendu des bots de bannissement, qui pouvaient bloquer préventivement les utilisateurs connus pour participer à des communautés hostiles. C'est une tension classique entre la politique à l'échelle de la plateforme et les besoins spécifiques des communautés—Reddit veut de la cohérence, tandis que les mods veulent du contrôle.
Ce n'est que le dernier d'une série de changements de la part des administrateurs de Reddit. En décembre, l'entreprise a limité le nombre de subreddits populaires qu'un seul modérateur peut contrôler, une autre mesure qui a remodelé l'équilibre des pouvoirs sur la plateforme. Chaque changement reflète la lutte continue de Reddit pour adapter sa gouvernance : comment favoriser une discussion ouverte tout en protégeant les utilisateurs, sans épuiser les bénévoles qui maintiennent le fonctionnement ?
Au fond, ce débat concerne la confiance. Reddit demande aux communautés de faire confiance à ce que ses outils et politiques les protégeront. Les modérateurs, à leur tour, demandent à Reddit de faire confiance à ce qu'ils connaissent le mieux leurs communautés. Trouver un terrain d'entente ne sera pas facile—mais pour des millions d'utilisateurs, le résultat définira ce que signifie appartenir ici.