Sono moltissime le associazioni, gli enti e le community del Terzo settore che ogni giorno si trovano a dover rispondere, censurare, segnalare linguaggi offensivi e di violenza, su tutte le piattaforme online. Spesso queste realtà sono piccole e non hanno una rete di stakeholders che risponde per loro, ma sono costrette a dedicare del tempo prezioso per arginare queste cattive abitudini degli utenti, al fine di mantenere integra la propria immagine. Uno studio, condotto dai ricercatori dell'università Ca' Foscari di Venezia, che nello specifico hanno analizzato 1 milione di commenti a video inerenti Covid-19, mostra che i cosiddetti "leoni da tastiera" non sono odiatori seriali, ma per lo più utenti che, in determinati contesti, diventano autori di commenti "tossici".

Lo studio, pubblicato venerdì 12 novembre su Scientific Reports,  da ricercatori dell’Università Ca’ Foscari Venezia, in collaborazione con Agcom e Jozef Stefan Institute di Lubiana, ha analizzato un milione di commenti a video inerenti Covid-19 pubblicati su Youtube.

“La ricerca – spiegano in una news sul sito è stata svolta nell’ambito del progetto europeo IMSyPP “Innovative Monitoring Systems and Prevention Policies of Online Hate Speech", partito a marzo 2020 e della durata di 2 anni. Il progetto si pone come obiettivo principale l'analisi dei meccanismi che governano la formazione e diffusione di hate speech online e la formulazione di proposte data-driven per contrastarne la diffusione”.

Per monitorare la presenza del discorso d’odio (hate speech) su tale mole di contenuti, il team coordinato da Fabiana Zollo, ricercatrice di Ca’ Foscari, ha messo a punto un modello di machine learning in grado di etichettare ogni commento e classificarlo come appropriato, inappropriato, offensivo o violento, a seconda della tipologia di linguaggio utilizzata.

Dalla ricerca è emerso che solo il 32% dei commenti classificati come violenti siano stati rimossi dalla piattaforma o dall’autore ad un anno dalla pubblicazione. Inoltre, tra i 345mila autori non vi sono veri e propri “leoni da tastiera” identificabili in una precisa categoria di persone, bensì molti utenti che, in determinati contesti, diventano autori di commenti “tossici”.

Secondo Fabiana Zollo “sembrerebbe che l’utilizzo di un linguaggio offensivo e violento da parte degli utenti sia scatenato occasionalmente da fattori esterni. Lo studio di questi fattori è sicuramente decisivo per individuare le strategie più efficaci per arginare il fenomeno”.

La ricerca ha quantificato la mole di commenti d’odio, registrando un’incidenza dell’1% sul milione di commenti analizzati. Tale percentuale è risultata simile sia per i canali ritenuti affidabili, sia per quelli che diffondono disinformazione. A tal proposito, hanno un linguaggio più tossico, con espressioni violente e offese, gli utenti che utilizzano canali affidabili. “L’analisi ha anche mostrato come il linguaggio degeneri quando l’utente si trova a commentare in una ‘bolla’ diversa da quella a cui è più familiare, in un ambiente quindi ‘avverso’ alle sue opinioni”.

“L'hate speech - spiega Matteo Cinelli, primo autore dello studio e ricercatore postdoc a Ca’ Foscari - è uno dei fenomeni più problematici del web poiché rappresenta un incitamento alla violenza nei confronti di specifiche categorie sociali ed infatti sia le piattaforme social che i governi sono alla ricerca di soluzioni a tale problema”.

In Italia, come ben sappiamo, il DDL Zan sarebbe certamente potuto essere un argine, non per alcune minoranze, bensì per una moltitudine di persone. Come indica  il titolo stesso, il Ddl propone di intervenire attraverso “Misure di prevenzione e contrasto della discriminazione e della violenza per motivi fondati sul sesso, sul genere, sull’orientamento sessuale, sull’identità di genere e sulla disabilità”.
Ci auguriamo che prima o poi il nostro Paese si interroghi e accolga le raccomandazioni delle Nazioni Unite e del Consiglio d’Europa, che invitano a dotarsi di strumenti e di strategie adeguate sia alla promozione di una cultura del diritto a tutela di tutte le persone e al sostegno delle vittime di discriminazioni, come richiesto espressamente nel 2012 dalla Direttiva vittime dell’Unione Europea, che alla prevenzione dei crimini d’odio come risposta ferma e duratura a linguaggi e prassi discriminatorie.

Partner della formazione

ConfiniOnline fa rete! Attraverso la collaborazione con numerosi enti profit e non profit siamo in grado di rivolgere servizi di qualità a costi sostenibili, garantendo ampia visibilità a chi supporta le nostre attività. Vuoi entrare anche tu a far parte del gruppo?

Richiedi informazioni