L’algoritmo di Arianna che blocca l’odio social

E il filo diventa algoritmo per fermare l'aggressione verbale

Sessista, misogino, aggressivo, sono i parametri con cui può essere definito un messaggio in rete. Infatti mentre l’odio impazza sul web e sempre più spietato nei confronti delle donne Arianna Muti, studentessa di 26 anni, ha trovato la risposta a questo livore sessista. E’ un algoritmo che difende le donne dagli insulti social e che definisce un commento su Twitter appunto come violento o misogino.

Che i social abbiano dato voce a tutti stabilendo una libertà di espressione mai vista prima nella storia è anche una sacrosanta conquista, solo se questa non diventa  arma per una nuova guerra.
Eppure ciò sembra non arrivare nella testa di tutti. Con i social è arrivata la libertà di espressione ma anche l’odio. Una nuova piaga sociale alla quale Arianna ha voluto trovare una risposta di contrasto. La giovane  è una studentessa di linguistica computazionale all’Università di Bologna, ovvero quell’intelligenza artificiale applicata al linguaggio da cui nascono gli assistenti vocali come Siri o Alexa.

Ma facciamo un passo indietro. Perché Arianna decide di mettersi all’opera? I dati parlano chiaro.
La mappa dell’intolleranza pubblicata dall’osservatorio Vox Diritti del 2020, l’anno della pandemia, rileva che, rispetto all’anno precedente, i tweet misogini sono aumentati del 90%, finendo per essere il 49,91% del totale. Mostrando come l’odio in rete sia una realtà radicata sempre più mirata verso le donne.
E se è vero che si possono segnalare i commenti che incitano all’odio e alla violenza, il procedimento poi per la cancellazione è lungo e tortuoso, tanto che diventa più semplice lasciar fare al tempo.

L’algoritmo di Arianna ha permesso di stilare anche una lista delle parole più (mal) usate  Al primo posto, tra quelli ripetibili, compaiono schiaffi, gola, acida. Ma sono anche molte le frasi legate al sesso, ovviamente, al body shaming e all’astio contro le donne che lavorano.
L’algoritmo di Arianna individua e blocca in automatico i post contenenti queste parole chiave, cattive, che rimandano a insulti di matrice sessista. Il punto di partenza è un database di 5000 tweet. I messaggi vengono letti e analizzati per poi essere classificati nelle 3 categorie: non misogino, misogino e non aggressivo, misogino e aggressivo.

(Non perderti le notizie della capitale sulle iniziative a Roma il 25 novembre)