Possiamo mantenere Facebook al sicuro senza danneggiare il personale?

Possiamo mantenere Facebook al sicuro senza danneggiare il personale?

Nel 2017, Facebook ha leggermente modificato la sua dichiarazione d'intenti. È stato promesso un impegno a "rendere il mondo più aperto e connesso", con l'intenzione di "consentire alle persone di costruire comunità e avvicinare il mondo".

Puoi vederlo come un'ammissione che "l'apertura" non è riuscita. "Aperto" significa aperto all'incitamento all'odio, agli abusi sui minori, alla violenza, al sesso e al tipo di atti illegali con cui Facebook non avrebbe nulla a che fare. Eppure la società ora deve ripulire questo danno ogni ora, ogni giorno.

O meglio, assumi estranei per fare il tuo lavoro sporco. In The Cleaners, un documentario di Hans Block e Moritz Riesewieck, gli uomini d'affari filippini discutono francamente del flusso costante di sesso, violenza e incitamento all'odio che devono filtrare ogni giorno.

Mozfest 2019

L'ex moderatore di Facebook Chris Gray e il regista Moritz Riesewieck al Mozfest 2019

(Credito immagine: Connor Ballard-Bateman)

Ogni decisione dovrebbe essere presa in otto-dieci secondi e "non pensare troppo" è una citazione diretta dal materiale di formazione così com'è. "Non preoccuparti troppo se la tua decisione è giusta o sbagliata, altrimenti la penserai troppo e non sarai in grado di prendere una decisione", dice Riesewieck a LaComparacion sul Mozfest di Mozilla, da dove provengono lui e il suo regista partner. gruppo di discussione di moderazione su Internet.

Se mai un'azienda ha dovuto insistere sull'idea che qualsiasi problema possa essere risolto con abbastanza soldi, è Facebook. Eppure, finora, il problema è solo in crescita. Nel 2009, Facebook aveva solo 12 (sì, dodici) moderatori di contenuti che cercavano il benessere di 120 milioni di utenti. Ora ci sono più di due miliardi di persone sulla piattaforma e circa 15,000 moderatori. Anche se questo significa che il rapporto moderatore / utente è passato da moderato a basso, va notato che Facebook nel 2019 è molto diverso da quello che era dieci anni fa quando veniva utilizzato il pulsante "J". Mi piace "è stata l'ultima innovazione e Facebook Live, c'erano ancora molti anni.

"Il peggio del peggio degli sprechi di Internet"

"Si stima che circa 100,000 professionisti stanno lavorando in questo campo", afferma Clara Tsao, una collega di Mozilla ed esperta nella lotta alla disinformazione online. "Si occupano del peggiore dei peggiori rifiuti su Internet", aggiunge, sottolineando che il 4 gennaio vengono letteralmente chiamati "bidelli".

Tuttavia, a differenza dei custodi del mondo reale, i pulitori di Internet non sono sempre dotati dell'hardware giusto per il grande compito a portata di mano. Il contingente filippino di Facebook a volte ha incontrato scambi in lingue che non parlavano, utilizzando Google Translate per comprenderne il significato. Ciò assume inevitabilmente una sfumatura pesante, anche prima di affrontare le inevitabili differenze culturali tra paesi separati da un divario di otto ore tra i fusi orari.

Immagini dei social media

I moderatori di Facebook devono monitorare grandi quantità di contenuti da tutto il mondo e potrebbero dover valutare le conversazioni in una lingua che non parlano.

(Credito immagine: Shutterstock)

I moderatori di Facebook non si trovano solo nelle Filippine. Ci sono uffici in tutto il mondo, ed è a Dublino che Chris Gray si è ritrovato dopo aver trascorso un periodo di insegnamento in Asia. Ora è il principale attore dei moderatori nei procedimenti dell'Alta Corte contro Facebook. Durante un periodo di nove mesi presso l'azienda (in Irlanda, la maggior parte dei lavoratori ha un contratto di 11 mesi, ma la maggior parte lascia presto), Gray ha provato 500-600 contenuti a notte, di solito dalle 18:2 alle XNUMX:XNUMX. . Appena un anno dopo la sua partenza, ha ricevuto ufficialmente una diagnosi di disturbo da stress post-traumatico.

"Mi ci è voluto un anno per rendermi conto che questo lavoro mi aveva messo fuori combattimento", ha detto durante la discussione di gruppo. Questa reazione tardiva, ci dice Riesewieck, non è del tutto insolita. "In alcuni casi, ci hanno detto che erano soprattutto i loro amici a dir loro che erano cambiati", dice.

Mi ci è voluto un anno per rendermi conto che questo lavoro mi aveva colpito nel culo

Chris Grey

In ogni caso, molti ex colleghi di Gray sono felicissimi di vedere che ha violato l'NDA e trascinato la causa, anche se non sono pronti a dirlo pubblicamente per l ' adesso. "La gente esce dalla foresta e dice: 'Oh grazie a Dio, qualcuno ha parlato e l'ha detto'", ha detto in seguito a LaComparacion.

Per essere chiari, nonostante il fatto che sia stato personalmente influenzato dal lavoro, Gray ritiene che sia fuorviante presumere che si tratti di violenza, sfruttamento sessuale e sessuale senza fine. "Ad essere onesti, la maggior parte del lavoro è noioso", dice. "Queste sono solo persone che si segnalano a vicenda perché litigano e vogliono usare un processo per comunicare con l'altra persona".

Noioso, ma sotto pressione. Nell'ufficio irlandese, Gray aveva 30 secondi per emettere un verdetto sul contenuto, che era un insulto a una linea o un video di 30 minuti. . "Se il tuo ascoltatore ha cliccato (su un video) due secondi dopo di te e ha visto qualcosa di diverso, ha sentito un insulto diverso o ha visto qualcosa di più in alto nella gerarchia delle priorità, quindi accettalo, hai preso una decisione sbagliata." Le decisioni sbagliate influenzano il tuo punteggio di qualità e il tuo punteggio di qualità influisce sul tuo lavoro. Nonostante ciò, l'obiettivo dell'ufficio era una precisione quasi impossibile al 98%.

Supereroi

È difficile trovare persone con cui parlare della loro esperienza di moderazione, come hanno scoperto Block e Riesewieck durante la ricerca di argomenti. Gli accordi di non divulgazione sono universali e il lavoro è classificato sotto un nome in codice: al momento delle riprese si trattava del "Progetto Honey Badger".

Nonostante ciò, Facebook, oi subappaltatori che mostrano moderazione, assumono apertamente, anche se spesso sono estremamente fuorvianti su ciò che effettivamente comporta il lavoro. "Indossano supereroi in costume", dai, sii supereroi, ripulisci Internet ", dice Gabi Ivens, un altro membro di Mozilla nel pannello." Un annuncio in Germania per moderatori di contenuti ha sollevato domande come "Ti piacciono i social media e vuoi essere a conoscenza di ciò che sta accadendo nel mondo?"

Nonostante la noia generale della quotidianità, i documentari di Block e Riesewieck sono sorprendenti: molti dei soggetti nelle loro interviste sono molto orgogliosi di questo ruolo, considerandolo meno un dovere che un lavoro.

Facebook

I moderatori filippini di Facebook hanno detto ai registi Hans Block e Moritz Riesewieck che sentivano che era loro dovere etico ripulire Internet.

(Credito immagine: Shutterstock)

"Ci hanno detto che si sentivano come supereroi di Internet, come agenti di polizia che controllano Internet", ha detto Block. Gli amministratori attribuiscono questo in parte al 90 per cento della popolazione cristiana delle Filippine. "Ci hanno detto che sentivano che Gesù stava liberando il mondo", aggiunge Block. Questo a sua volta potrebbe rendere le persone riluttanti ad andarsene, considerandolo un dovere etico e non solo un lavoro.

Ma ci sono dei limiti, soprattutto perché i moderatori non effettuano da soli le ultime chiamate. Qui, il testo sacro è l'insieme labirintico di regole e istruzioni di Facebook: migliaia di parole accumulate in tanti anni. In alcuni casi, le persone devono proteggere le parole che pensano dovrebbero essere vietate o vietare le parole che ritengono dovrebbero essere protette, il che, secondo Ivens, è un chiaro problema di benessere. "Mantenere online i contenuti che ritieni non dovrebbero essere dovrebbe essere estremamente dannoso prima ancora di pensare a ciò che le persone stanno guardando".

L'ironia di considerare le regole come sacre è che le regole di Facebook non sono mai state un testo congelato infallibile: sono il risultato di anni di cambiamenti iterativi, rispondendo gradualmente alle crisi man mano che si presentano e cercando di rendere il soggettivo più bersaglio.

Mantenere online contenuti che non ritieni dovrebbero essere online è estremamente dannoso prima ancora di pensare a ciò che le persone stanno guardando.

Gabi ivens

Ricordi la campagna "Free Nipple"? In breve, le linee guida di Facebook stabilivano originariamente che qualsiasi fotografia di seno dovrebbe essere vietata come pornografia, il che significa che Internet è stato privato delle madri orgogliose che allattano al seno sulla piattaforma. Facebook ha gradualmente cambiato le sue regole e ha accettato che il contesto fosse importante. Allo stesso modo, dobbiamo accettare che anche se non c'è nulla di illegale nel mangiare baccelli di marea o nel diffondere teorie del complotto anti-vaccinazione, se qualcosa si trasforma in un'epidemia di salute pubblica, quindi, è tuo dovere agire.

"Alcune piattaforme affermano che alcuni dei contenuti potrebbero non essere illegali, ma che sono inaccettabili", afferma Tsao. Ma "altri pensano che Internet dovrebbe avere maggiore libertà di dire ciò che vuole". Per Facebook, questa dicotomia produce livelli assurdi di granularità: "Ora abbiamo alcuni indizi su come minacciare di spingere qualcuno dal soffitto", dice Gray. "Spingere non è un'azione violenta. Essere sul tetto è importante, ma quanto è alto?" Peccato che "non pensi troppo".

Questo tipo di inerzia nelle linee guida sulla moderazione consente ai troll di Internet di prosperare. Non devi cercare lontano per trovare esempi di voci su Internet che arrivano direttamente al punto senza esagerare. Invece, lo lasciano ai loro seguaci e, a volte, catastroficamente, si riversa nel mondo reale.

La moralità non supera i confini

Lo stato globale di Facebook rende il problema ancora più complesso perché il morale non è condiviso oltre i confini. "È complicato perché va oltre la politica locale dei paesi e confina con un selvaggio west", dice Tsao.

Gray dà un esempio della sessualità delle persone: il gay pride è molto presente nella maggior parte dei paesi occidentali, ma meno ovunque nel mondo. Puoi taggare un amico come gay in un post e sono abbastanza a loro agio con la loro sessualità da condividerlo. Quindi in questo caso è ragionevole non arrendersi, anche se una ragazza omofoba se ne lamenta.

Facebook

La moralità non è un concetto globale. il che rende la moderazione dei contenuti internazionali una grande sfida

(Credito immagine: Shutterstock)

"Ma se sei in Nigeria, potresti essere picchiato o ucciso perché qualcuno vede questo messaggio", dice. "Questo errore potrebbe costare la vita a qualcuno. Voglio dire, è la realtà: a volte guardi situazioni di vita e di morte."

Gli atti di violenza oggettivi dovrebbero essere più specifici, ma non lo sono. Il video che mostra un bambino che viene ucciso può sembrare un ovvio candidato alla repressione, ma cosa succederebbe se il giornalismo cittadino scoprisse crimini di guerra non denunciati? Se Facebook se ne sbarazza, non è solo l'ala di propaganda inconsapevole dei peggiori despoti del mondo?

Questa è la realtà: a volte guardiamo situazioni di vita e di morte.

Chris Grey

È complesso, facilmente confuso e non aiuta i lavoratori giudicati in base alle loro risposte oggettive a posizioni soggettive. "La gente protesta e si presenta sulla mia scrivania", ha detto Gray sul pannello. "E devo fare la chiamata: questo bambino è morto? Allora devo premere il pulsante giusto. Se premo il pulsante sbagliato perché il mio ascoltatore pensa che il bambino non sia morto, allora mi sbaglio e raggiungo il livello di qualità e Vengo licenziato.

"Quindi sto sveglio la notte a letto, vedo di nuovo quella foto e cerco di litigare per mantenere il mio lavoro."

Può essere riparato?

Dovrebbe essere abbastanza ovvio a questo punto che non è interamente colpa di Facebook, anche se la società non ha aiutato durante l'intero processo. Ma cosa può fare? È abbastanza ovvio che il problema non funzionerà e la moderazione dell'IA non è ancora pronta per lo spettacolo. (E ci sono dubbi legittimi su questo). Per iniziare, hai bisogno che gli umani addestrino l'IA, che sposta il trauma di un passo indietro. 39, sarà molto difficile rimuovere completamente gli esseri umani dal circuito ", dice Tsao).

"Facebook non ha una strategia chiara per questo", dice Gray. "Tutto è reattivo. Succede qualcosa, quindi creano una nuova regola e assumono più persone. Pensa che la mancanza di leadership sia la radice del problema." Devi sapere dove stai andando e qual è la tua strategia, e non lo stanno facendo. "Ne consegue tutto".

Lavoratore stressato

Roderick Ordens, professore di psicologia, ritiene che sia estremamente importante che nessuno svolga questo tipo di lavoro da solo. La responsabilità non ricade interamente su una persona.

(Credito immagine: Shutterstock)

Questo, secondo Tsao, è dovuto in parte al fatto che i decisori non dovevano farlo da soli. "Ho intervistato persone che sono responsabili della fiducia e della sicurezza nelle aziende, e uno di loro ha sempre detto:" Se vuoi giocare un ruolo di leadership in questo campo professionale, devi capire come funziona. "dice." Devi capire il trauma, devi capire che tipo di sistema di supporto è necessario. "

Roderick Ordens, professore di psicologia all'Università di Lincoln, ha le sue prospettive quando lo contattiamo. C'è un dovere di diligenza. Questo non garantisce in alcun modo che non ci saranno vittime tra coloro che vedono questo tipo di materiale, ma bisogna vedere che l'azienda ha fatto tutto il possibile per ridurre i rischi per il personale.

Nessuno dovrebbe fare questo tipo di lavoro da solo. E se è stato fatto da un gruppo, ciò che conta davvero è la forte coesione del gruppo.

Ordini di Roderick

"Prima di tutto, nessuno dovrebbe fare questo tipo di lavoro da solo. E se è stato fatto da un gruppo, ciò che conta davvero è la forte coesione del gruppo. È molto importante organizzarlo in modo che la responsabilità non sia percepita come la responsabilità del gruppo individuale.

Secondo Ordens, qualsiasi azienda che assume per "un lavoro così pericoloso" dovrebbe essere formata per consentire ai dipendenti di riconoscere i segnali di pericolo: "una sensazione generale di disagio, di non potersi rilassare dopo il lavoro, forse eccessivamente preoccupata da alcune immagini E sii particolarmente vigile per vedere se il sonno è influenzato: con un accumulo di sonno cattivo, tutto il resto è molto peggio ".

"Di cosa è preoccupata la tua mente?"

Che Facebook sia interessato a tale conoscenza è un altro problema. "Non pretendiamo che tutta la colpa sia sul lato aziendale, non è vero", dice Block. "La colpa, almeno secondo noi, è che non la rendono trasparente, non aprono la discussione e non accettano di non poter decidere da soli su tutto questo". Block e Riesewieck sanno che alcuni dipendenti di Facebook hanno visto il loro film durante una proiezione a San Francisco, e proprio per questo si è parlato persino di proiettarlo negli uffici di Facebook. Le e-mail di follow-up sono misteriosamente senza risposta.

È vero che il trattamento NDA non aiuta e il gran numero di ex e ex dipendenti associati a loro significa che l'effetto diminuirà inevitabilmente perché c'è una certa certezza nei numeri. Gray non ha avuto notizie da Facebook per rivelare le sue, almeno non direttamente.

"Ho ricevuto una chiamata da un ex collega... qualche settimana fa. Mi hanno detto: 'Ehi, mi hanno detto che Facebook ti ha fatto causa'. No. Chi hai detto che mi hanno fatto causa? 'Il mio caposquadra'. La tua squadra cerca di manipolarti per farti tacere."

Non so se sia già stato fatto qualcosa. Sai, va solo nel vuoto, a quanto pare

Chris Grey

In altre parole, l'equilibrio tra carota e bastone è comico come il rapporto del moderatore / utente di Facebook. Dato che le persone vogliono migliorare Internet, forse Facebook potrebbe trarre vantaggio da questo senso?

Persino Gray ricorda di essere positivo quando ricorda un SMS che ha inviato all'inizio. "Ho detto:" Ho segnalato personalmente 13 casi di abusi sui minori al team di risposta rapida e mi sento davvero bene ". Ma non è durato. "Non ho mai sentito queste persone. Non so se è già stato fatto qualcosa. Sai, sembra che tutto stia accadendo nel vuoto.

Il riconoscimento può fare la differenza per aumentare il morale? Forse, ma solo se hanno davvero un impatto, Gray interviene abbastanza. "Un bambino in Afghanistan viene legato nudo sul letto e picchiato. Si aggrava perché si tratta di abuso sessuale di un bambino, ma cosa si può fare?

"Sto solo seguendo la politica, la persona al livello più alto la sta semplicemente eliminando".