AI dilemmi etici | mondo informatico

dilemmi etici dell'IA | mondo informatico

Possiamo fidarci dell'IA? È già visibilmente e invisibilmente intrecciato nel nostro mondo, da Google Translate e i robot per videogiochi all'uso industriale nel settore sanitario, manifatturiero e bancario per carichi di lavoro critici. Possiamo sfruttare efficacemente questa tecnologia rivoluzionaria e sfuggire ai dilemmi etici intrinseci di pregiudizi, fiducia e trasparenza? C'è una via da seguire, ma richiederà conversazioni continue e diligenti sull'etica dell'IA mentre la tecnologia continua ad evolversi.

Ti fidi dell'IA?

Il problema della fiducia si pone spesso in situazioni in cui l'attività umana è affidata all'IA. Ad esempio, Tesla e altre case automobilistiche stanno sperimentando funzionalità di guida e parcheggio automatizzate gestite dall'IA. La guida autonoma spinge i limiti della fiducia, poiché i test di questa tecnologia hanno portato alla morte di persone. Le linee sono rapidamente tracciate nella sabbia tra il fatto che possiamo o meno fidarci di un'auto per il parcheggio.

Tuttavia, la fiducia nell'IA è già inerente ad alcuni casi d'uso: le persone lo fanno senza nemmeno rendersene conto. In caso di rilevamento di una frode, vengono inviati messaggi di testo su transazioni sospette anche prima che ti rendi conto che il tuo portafoglio o la tua carta di credito mancano. Questo tipo di tecnologia avviene in tempo reale e può farti risparmiare un enorme mal di testa finanziario.

Anche nei settori in cui l'IA fa parte dei carichi di lavoro business-critical, la questione della fiducia rimane rilevante. Ad esempio, nella tecnologia mainframe, alcune aziende non intervengono automaticamente quando l'IA scopre un'anomalia. Sebbene l'IA abbia fatto il suo lavoro rilevando l'anomalia, non capisce che interrompere il lavoro su un mainframe potrebbe avere conseguenze catastrofiche per un'azienda. In questo caso, gli operatori non si fidano dell'IA per esprimere un giudizio migliore di quello che potrebbero. Con l'evoluzione dell'IA, le aziende e i casi d'uso verificheranno quando, dove e quanto fidarsi di questa tecnologia; alla fine, esamineranno se i dati e/o i risultati sono realizzabili e imparziali.

bias in, bias out

Come gli esseri umani, ci si aspetta spesso che i sistemi di intelligenza artificiale seguano le norme sociali e siano equi e imparziali. Quando si tratta di pregiudizi, il problema non è esclusivo dei modelli di intelligenza artificiale: anche gli esseri umani lottano con i pregiudizi. Tuttavia, con l'IA, i potenziali risultati di distorsione possono avere un impatto sbalorditivo. Nell'IA, il bias ha una forte correlazione con i dati di input. Ad esempio, dati di input impuri, non raffinati o errati influiranno sull'output. La cosa importante da capire con un pregiudizio è che ci vuole sensibilità, intuizione e apertura per navigare eticamente.

Gli esseri umani alla fine controllano i pregiudizi nell'IA: i professionisti selezionano i dati di input originali e introducono pregiudizi per influenzare i risultati. Prendi Amazon, per esempio. Amazon riceve un gran numero di richieste. Quando hanno deciso di testare l'applicazione dell'IA al loro processo di assunzione, l'azienda ha utilizzato i CV degli attuali dipendenti come dati di input. Quindi qual è stato il risultato? Amazon ha ampiamente condiviso che, utilizzando un campionamento demografico selezionato, i risultati erano distorti rispetto alle donne. Durante il processo di test, il rivenditore ha scoperto che se la parola "donna" appariva in un punto qualsiasi di un curriculum, quella persona non riceveva mai una chiamata. Amazon si è resa conto che i dati di input facevano parte del problema e non ha mai implementato il modello per i responsabili delle assunzioni.

Condividere queste informazioni ed essere sensibili ai risultati è essenziale mentre continuiamo a scoprire il miglior uso di questa tecnologia. Poiché il pregiudizio è fortemente legato all'intento, Amazon non è un esempio di uso dannoso dell'IA. Al contrario, dimostra la necessità di introspezione quando si utilizza l'IA. Amazon ha corretto i risultati per la distorsione del modello per aiutarli a ottenere un risultato più equilibrato.

L'intelligenza artificiale è già diventata molto rapidamente una parte critica del business, anche un importante elemento di differenziazione per alcune organizzazioni, e ci si possono aspettare problemi etici come i pregiudizi. Le chiavi per superare i pregiudizi sono assicurarsi che i dati di input siano il più puliti possibile ed essere disposti a indagare sui risultati non etici in modo aperto e trasparente.

Il ruolo della trasparenza

La trasparenza nell'IA può essere definita come spiegabile a dipendenti e clienti. Il problema è che l'IA non è intrinsecamente trasparente, quindi sarà una parte essenziale della navigazione man mano che l'IA verrà perfezionata. Quando si applica la trasparenza a livello aziendale, la domanda è: come stabilire regole di applicazione generale quando ci sono diversi gradi di impatto? Come faremo a sapere se l'IA utilizzata con esito meno favorevole è trasparente?

La mancanza di trasparenza è particolarmente importante per i consumatori. I consumatori vogliono sapere quali dati personali raccolgono le aziende, come li usano, come funzionano i loro algoritmi e chi è responsabile se qualcosa va storto. In alcuni casi, come Spotify, l'algoritmo è legato al vantaggio competitivo dell'organizzazione. Il valore di Spotify per il consumatore risiede nelle raccomandazioni che fornisce sulla base delle informazioni raccolte sull'ascoltatore. La domanda, quindi, è: dov'è la linea etica della trasparenza? Quanto dovrebbe condividere un'azienda e quanto i consumatori dovrebbero vedere e sapere?

La trasparenza è un obiettivo in movimento; tuttavia, è fondamentale valutare l'impatto quando gli algoritmi cambiano. Quando si verifica un cambiamento, essere trasparenti su quel cambiamento e sul suo impatto sulle varie parti interessate sarà la chiave per aiutare la tecnologia a progredire verso un luogo ancora più innovativo. Una possibile soluzione sta in un equilibrio. Le organizzazioni che sono disposte a spiegare perché determinate decisioni sono state prese nei loro modelli possono dare un contributo positivo alla trasparenza senza rivelare informazioni sensibili.

È possibile un equilibrio etico?

La risposta breve è sì, un equilibrio etico è possibile. Tuttavia, capire come navigare nell'etica della tecnologia AI è un processo continuo. Alcuni nel nostro settore chiedono trasparenza, mentre le aziende ritengono necessario proteggere la propria tecnologia perché è un elemento di differenziazione. Entrambe le parti esprimono punti significativi e validi, ma dove rimane il dilemma etico intrinseco?

Ci sono alcuni fattori chiave indipendentemente dal lato della conversazione in cui ti trovi.

Il continuo input umano sarà un aspetto importante della tecnologia di intelligenza artificiale, dal punto di vista etico e funzionale. Ora e man mano che l'IA si evolverà in futuro, richiederà l'input umano e la supervisione.

La sensibilità alla distorsione è essenziale per i dati di input, gli accoppiamenti del modello e il monitoraggio dei risultati.

La trasparenza sui passi falsi e sui successi dell'IA incoraggia le conversazioni sull'etica e aiuta a far progredire la tecnologia dell'IA.

Poiché l'IA continua a influenzare la comunità globale, dobbiamo continuare a impegnarci a condividere lezioni e porre domande etiche su fiducia, pregiudizi e trasparenza. Più facciamo, migliori saranno le decisioni che prenderemo e più facile sarà capire come migliorare l'IA in futuro.

Vuoi saperne di più sul ruolo dell'IA in Broadcom? Scopri come utilizziamo la tecnologia AI per aumentare le operazioni IT.

Copyright © 2022 IDG Communications, Inc.