Microsoft mostra il giornalismo AI al suo peggio con la debacle di Little Mix

Microsoft mostra il giornalismo AI al suo peggio con la debacle di Little Mix

Con una pandemia globale abbastanza impegnata negli ultimi mesi, potresti esserti dimenticato di quest'altro pericolo apocalittico, vale a dire l'intelligenza artificiale incontrollata. Sfortunatamente, un programma di intelligenza artificiale commissionato a MSN.com di Microsoft lo ha riportato sotto i riflettori. La storia è incentrata su un articolo pubblicato su MSN.com sulla star di Little Mix Jade Thirlwall che abusa di una foto di un altro membro del gruppo di razza mista, Leigh-Anne Pinnock. Sarebbe un errore piuttosto grave per un editore umano, non solo per il suo orribile tempismo tra le proteste mondiali contro l'ingiustizia razziale, ma assume un sapore completamente nuovo quando compaiono i processi automatizzati alla base di questo articolo. MSN.com non esegue i propri rapporti, preferendo riutilizzare gli articoli sul Web e distribuire le entrate pubblicitarie risultanti con l'editore originale il cui articolo è stato in grado di raggiungere un pubblico più vasto. Non sorprende, quindi, che Microsoft pensasse che gran parte di questo processo potesse essere automatizzato, non solo licenziando centinaia di dipendenti durante una pandemia, ma anche implementando un editore. AI che ha pubblicato automaticamente notizie su MSN.com senza supervisione umana.

Non così intelligente, dopotutto

Il pregiudizio razziale nell'IA è un problema ben documentato, con gli enormi set di dati utilizzati per addestrare software di intelligenza artificiale che spesso vedono questi programmi riprodurre pregiudizi umani, che, con il pretesto dell'obiettività algoritmica, le organizzazioni incentrate sulla razza possono facilmente non notare. (Per un esempio veramente distopico, dai un'occhiata a questa intelligenza artificiale psicotica modellata dai set di dati di Reddit.) Questo bug mostra cosa può accadere quando l'intelligenza artificiale insensibile viene affidata alla supervisione editoriale, richiedendo empatia oltre un senso algoritmico di interesse del lettore. La cosa più sconcertante in questa storia, tuttavia, è l'ampiezza del ruolo che Microsoft si è sentita a suo agio nell'assegnare a un'intelligenza artificiale, con la possibilità di pubblicare automaticamente storie senza cura umana, il che significa che nessuno ha avuto la possibilità di prevenire questo bug prima che arrivi a MSN .com Lettori. Abbiamo anche appreso che se l'articolo è stato rapidamente rimosso dal personale umano, un termine che non possiamo credere di dover usare, AI aveva ancora la possibilità di cancellarli e ripubblicare la stessa storia. In effetti, è essenzialmente quello che è successo: con gli articoli di stampa sullo scambio automatico di AI riguardo ai propri errori, ritenendoli rilevanti per i lettori di MSN.com. Quando è stato contattato, un rappresentante Microsoft ha dichiarato: "Non appena siamo venuti a conoscenza di questo problema, abbiamo immediatamente agito per risolverlo e sostituito l'immagine errata". Tuttavia, non abbiamo ancora sentito parlare del cambiamento in questi processi di intelligenza artificiale. Sebbene il software di intelligenza artificiale possa sembrare un sostituto pratico per i ruoli in redazione, abbiamo visto che le applicazioni di intelligenza artificiale non sono pronte ad assumersi la responsabilità editoriale dalle mani dell'uomo e provare a precipitarsi nel futuro. L'intelligenza artificiale danneggerà solo la reputazione e i rapporti online di Microsoft. Via Il Guardiano