È appena partito in fase di test un nuovo strumento che prova ad agire alla fonte, il bullo o leone da tastiera che dir si voglia, prima che il commento carico di odio o comunque potenzialmente dannoso venga inviato.
E’ uno strumento di moderazione che avviserà gli utenti , tramite popup, prima dell’invio di commenti e risposte sulla piattaforma che contengono un linguaggio potenzialmente dannoso.
Il nuovo strumento è in fase di test con un gruppo limitato di utenti di iOS e al momento non è chiaro se e quando la novità sarà estesa a tutti gli utenti di Twitter.