YouTube utilizza l'intelligenza artificiale per rimuovere 11 milioni di video in un quarto

YouTube utilizza l'intelligenza artificiale per rimuovere 11 milioni di video in un quarto

Nell'ultimo anno, YouTube e le piattaforme di social media come Facebook e Twitter hanno affrontato notizie false e disinformazione. Sebbene la maggior parte dei siti di social network abbia segnalato questo tipo di contenuto, YouTube utilizza l'intelligenza artificiale per bloccare i contenuti offensivi. La più grande piattaforma video del mondo ha utilizzato la sua esperienza di intelligenza artificiale durante la pandemia in corso per rimuovere quasi 11 milioni di video dalla sua piattaforma. L'ultimo rapporto sulla conformità alle norme della community di YouTube afferma che questo è il numero massimo di video che la piattaforma è riuscita a rimuovere in un solo trimestre. Ed è successo nel secondo trimestre del 2020.

Come l'IA ha gestito lo spettacolo

Degli 11,4 milioni di video rimossi dalla piattaforma nel secondo trimestre, i moderatori di AI ne hanno segnalati 10,85 milioni. Di conseguenza, l'azienda afferma di non aver sentito la pressione dei dipendenti che lavorano da casa. L'uso di sistemi automatizzati si è dimostrato efficace nella rimozione di contenuti designati come dannosi dalla politica aziendale. Mentre gli Stati Uniti, con 2,06 milioni di video, si sono classificati al primo posto nell'elenco dei paesi in cui YouTube ha rimosso il massimo dei contenuti, l'India si è classificata al secondo posto in termini di numero effettivo di video, pari a 1 milioni. Brasile, Indonesia e Russia erano tra i primi cinque.

Motivi del recesso

La sicurezza dei bambini, lo spam, i contenuti fuorvianti e la violenza sono stati alcuni dei motivi principali per la rimozione di questi video. Il rapporto ha anche rilevato che durante questo periodo sono stati rimossi anche fino a 1,9 milioni di canali (o programmi), con fino al 92% dei casi segnalati che riguardavano spam o contenuti fuorvianti. Sebbene il 42% delle rimozioni di video sia avvenuto prima che il video o il canale avesse accumulato visualizzazioni, ci sono stati anche casi in cui sono stati rimossi senza violare alcuna delle politiche dell'azienda relative ai contenuti. Il rapporto ammetteva di aver ricevuto denunce di trasferimento illegale e da allora le aveva gestite manualmente. Questo è anche il primo trimestre completo dell'azienda con tutti i moderatori di contenuti basati su algoritmi. YouTube ha ammesso che l'accuratezza dei video che coprono alcune aree sensibili come l'estremismo violento e la sicurezza dei bambini non era quella prevista.