Media Intelligence
Il lavoro che non augureresti nemmeno al tuo peggiore nemico
26 Settembre 2017
Ognuno di noi presta attenzione al tema della moderazione dei contenuti online solo quando trova qualcosa di particolarmente disgustoso che non dovrebbe essere lì.
Omicidi in diretta, decapitazioni, violenze e tentativi di suicidio vengono caricati senza sosta online sotto forma di video o fotografie.
Queste cose sconvolgono gli utenti – ma sono anche le uniche immagini che circa 150.000 persone in giro per il mondo osservano quotidianamente come lavoro.
Il “moderatore di contentui” è un lavoro vero e proprio che consiste nella verifica ed eventuale rimozione dei contenuti che violano i termini di utilizzo di fornitori di servizi internet, motori di ricerca o social network come Facebook e Twitter.
La moderazione viene quindi eseguita da persone fisiche, a cui vengono mostrati i contenuti proposti dagli algoritmi. Ognuno di loro deve esaminare il contenuto prima di eliminarlo o segnalarlo. Potremmo definirlo il backstage dei grandi TechGiant, ma è di fondamentale importanza per permettere una fruizione sicura e pulita agli utenti.
Il termine “moderatore di contenuti” è un modo decisamente soft per definire l’attività che questo lavoro implica.
“Non c’è lettarlmente nulla di piacevole in quel lavoro. Bisogna andare al lavoro alle 9 di mattina, accendere il computer e guardare una serie sterminata di decapitazioni”, ha riferito al Guardian un anonimo moderatore di Facebook: “Ogni giorno ed ogni minuto, questo è quello che vedi”.
La società di media social media monitoring Brandwatch ha condotto uno studio per dare l’idea del volume dei contenuti pubblicati online ogni giorno.
Le immagini condivise ogni 24 ore sul web sono circa 3,2 miliardi. Su Youtube ci sono 300 ore di video caricati ogni minuto. Su Twitter, ogni giorno vengono inviati 500 milioni di tweet: pari a circa 6000 tweet al secondo. Quindi considerando che il 2% delle immagini caricate potrebbero essere inadeguate, in un giorno avremo circa 64 milioni di post che devono essere moderati.
Henry Soto è un ex impegato di MSN che è stato trasferito dal customer service all’Online Security department nel 2008. Henry non avrebbe mai pensato che entro il 2015 avrebbe avuto problemi a passare del tempo con suo figlio.
La sola vista di suo figlio innescava nella sua testa le stesse immagini terribili che il suo lavoro lo costringeva a guardare.
Diversi dottori hanno identificato il disturbo come un chiaro segnale di PTSD, il disturbo post traumatico da stress.
Soto ha portato Microsoft in tribunale per questo ed il caso è ancora lontano dalla risoluzione.
Sarah Roberts (tra i pochi accademici che hanno studiato da vicino la moderazione dei contenuti online) ritiene che la causa contro Microsoft rappresenti un potenziale punto di svolta nel modo in cui vengono trattati i moderatori di contenuti. Infatti è la prima volta che un moderatore a contratto fa causa ad un Internet Service Provider importante.
Un supporto psicologico costante sarebbe fondamentale per garantire o tentare di garantire la loro integrità mentale.
Secondo molti, sono i “primi rispondenti” il parallelo più simile ai moderatori di contenuti online.
I primi rispondenti sono quelle persone che per prime si presentano sul luogo in caso di delitti, abusi, risse o altri misfatti. Militari, forze dell’ordine e personale medico in prima linea che hanno contratto lo stesso tipo di disturbo dopo una esposizione eccessiva a situazioni di questo tipo.
La consapevolezza dell’esistenza di questo lavoro è il primo passo verso la definizione di un metodo chiaro per tutelare le persone, tanto gli utenti online quanto i moderatori di contenuti.