Reddit sta implementando un importante cambiamento di politica destinato a modificare radicalmente il modo in cui le comunità si autoregolano. A partire dal 19 marzo, i bot di terze parti non potranno più bannare automaticamente gli utenti semplicemente per aver pubblicato in determinati subreddit. La piattaforma afferma che questa mossa mira a ciò che definisce ban per 'colpa per associazione' - punire le persone in base a dove sono state attive, piuttosto che al loro comportamento effettivo in una comunità specifica.
Immaginatelo come essere cacciati da un club del libro perché qualcuno vi ha visto in un altro bar. Reddit sostiene che questi ban di massa creano un'esperienza 'confusa e dirompente' per gli utenti, spesso coinvolgendo persone benintenzionate nel fuoco incrociato. Non riescono a distinguere tra un visitatore curioso e un vero e proprio piantagrane, portando a un'eccessiva applicazione che soffoca la discussione.
Il costo umano dell'applicazione automatizzata
Questo non è solo un problema teorico. Nel novembre 2024, il popolare streamer Asmongold si è ritrovato immediatamente bannato permanentemente dal subreddit di Dragon Age - non per qualcosa che ha detto lì, ma per la sua associazione con la sua comunità, r/asmongold. È un esempio lampante di come operano questi bot: scansionano le cronologie degli utenti, formulano giudizi affrettati ed escludono le persone senza contesto.
Per Reddit, la lezione emotiva qui riguarda l'equità e l'appartenenza. Quando le piattaforme si affidano troppo all'automazione, rischiano di perdere la sfumatura che fa funzionare le comunità umane. Un utente potrebbe partecipare a un subreddit controverso per discutere, per imparare o anche per fare l'avvocato del diavolo - motivazioni che un bot non può interpretare. Riducendo l'uso di questi strumenti, Reddit scommette che una moderazione più personalizzata porterà a discussioni più sane e coinvolgenti.
I moderatori si oppongono: 'Questo scatenerà le molestie'
Non tutti stanno festeggiando. L'annuncio ha scatenato aspre critiche da parte dei moderatori volontari che si affidano a questi bot per gestire comunità grandi e spesso vulnerabili. Molti sostengono che i ban automatizzati siano una difesa necessaria contro le campagne di molestia coordinate che attraversano più subreddit.
'Non aumenterà enormemente il carico di lavoro dei moderatori su, ad esempio, i subreddit LGBT+?' ha chiesto un utente di Reddit nel thread dell'annuncio. Un altro ha avvertito che 'i grandi subreddit avranno un'enorme quantità di problemi di molestie', sottolineando che gli strumenti esistenti di Reddit per il brigading spesso sembrano inefficaci.
La paura è palpabile: senza questi bot, i moderatori delle comunità prese di mira saranno sopraffatti nel tentativo di identificare e bloccare manualmente i malintenzionati. È una questione di carico di lavoro, ma anche emotiva - proteggere spazi sicuri dai troll è estenuante, e molti moderatori sentono che Reddit stia rimuovendo una linea di difesa critica.
Gli strumenti alternativi di Reddit: una soluzione o una toppa?
In risposta a queste preoccupazioni, Reddit sta indirizzando i moderatori verso la sua suite di moderazione integrata: strumenti come il Filtro Molestie, Controllo Folla, Filtro Reputazione e Filtro Elusione Ban. La piattaforma suggerisce che questi possano aiutare a gestire le comunità senza fare affidamento su ban indiscriminati basati sull'attività altrove.
Ma per molti moderatori, non è abbastanza. Sostengono che questi strumenti manchino del potere proattivo e ampio dei bot di ban, che potevano bloccare preventivamente gli utenti noti per partecipare a comunità ostili. È una classica tensione tra politica a livello di piattaforma e necessità specifiche della comunità - Reddit vuole coerenza, mentre i moderatori vogliono controllo.
Questo è solo l'ultimo di una serie di cambiamenti da parte degli amministratori di Reddit. A dicembre, l'azienda ha limitato quanti subreddit popolari un singolo moderatore può controllare, un'altra mossa che ha rimodellato l'equilibrio di potere sulla piattaforma. Ogni cambiamento riflette la lotta continua di Reddit per scalare la sua governance: come si favorisce una discussione aperta proteggendo gli utenti, senza esaurire i volontari che tengono accese le luci?
In fondo, questo dibattito riguarda la fiducia. Reddit chiede alle comunità di fidarsi che i suoi strumenti e politiche le proteggeranno. I moderatori, a loro volta, chiedono a Reddit di fidarsi che conoscono meglio le loro comunità. Trovare un terreno comune non sarà facile - ma per milioni di utenti, il risultato definirà cosa significa appartenere qui.