Microsoft nega il supporto pubblico per alcune funzionalità basate sull'intelligenza artificiale, incluso il riconoscimento facciale, e riconosce i problemi di discriminazione e accuratezza creati da queste offerte. Ma l'azienda ha avuto anni per risolvere i problemi e non è riuscita a farlo. È come una casa automobilistica che richiama un veicolo invece di ripararlo.

Nonostante i timori che la tecnologia di riconoscimento facciale possa essere discriminatoria, il vero problema è che i risultati sono imprecisi. (Tuttavia, l'argomento discriminatorio gioca un ruolo a causa delle ipotesi fatte dagli sviluppatori Microsoft durante la creazione di queste app.)

Cominciamo con ciò che Microsoft ha fatto e detto. Sarah Bird, senior product manager per il gruppo Microsoft Azure AI, ha riassunto il respingimento del mese scorso in un post sul blog Microsoft.

"A partire da oggi (21 giugno), i nuovi clienti devono richiedere l'accesso per utilizzare le operazioni di riconoscimento facciale nell'API Face, nella visione artificiale e nell'indicizzatore video di Azure. I clienti esistenti hanno un anno per richiedere e ricevere l'approvazione per l'accesso continuo ai servizi di riconoscimento facciale in base ai casi d'uso forniti. Introducendo l'accesso limitato, stiamo aggiungendo un ulteriore livello di controllo all'uso e all'implementazione del riconoscimento facciale per garantire che l'uso di questi servizi sia in linea con lo standard di intelligenza artificiale responsabile di Microsoft e apporti vantaggi di alto valore all'utente, alla fine e alla società. Ciò include l'introduzione dei termini di utilizzo e l'idoneità del cliente ad accedere a questi servizi.

"Le funzionalità di rilevamento del volto, tra cui sfocatura facciale, esposizione, occhiali, posizione della testa, punti di riferimento, rumore, occlusione e rilevamento del riquadro di delimitazione, continueranno a essere generalmente disponibili e non richiederanno un'app".

Guarda questa seconda frase, in cui Bird mette in evidenza questo ulteriore cerchio per consentire agli utenti di saltare "per garantire che l'uso di questi servizi sia in linea con lo standard di intelligenza artificiale responsabile di Microsoft e aiuti l'utente finale a realizzare vantaggi sociali e di alto valore".

Sicuramente suona bene, ma è davvero questo che fa questo cambiamento? O Microsoft si fiderà di esso solo per impedire alle persone di utilizzare l'app dove le imprecisioni sono maggiori?

Una delle situazioni discusse da Microsoft riguarda il riconoscimento vocale, in cui ha scoperto che "la tecnologia di sintesi vocale nel settore tecnologico ha prodotto tassi di errore per i membri di alcune comunità nere e afroamericane che erano quasi il doppio di quelli per gli utenti. "bianchi", ha detto Natasha Crampton. , direttore responsabile dell'IA presso Microsoft. "Abbiamo fatto un passo indietro, esaminato i risultati dello studio e scoperto che i nostri test di pre-pubblicazione non avevano catturato in modo soddisfacente la ricca diversità del discorso tra persone di diversa estrazione e di diverse regioni".

Un altro problema identificato da Microsoft è che le persone di tutti i ceti sociali tendono a parlare in modo diverso in contesti formali e informali. Oh va bene? Gli sviluppatori non lo sapevano prima? Scommetto che l'hanno fatto, ma non hanno pensato alle implicazioni del non fare nulla.

Un modo per risolvere questo problema consiste nel riesaminare il processo di raccolta dei dati. Per loro stessa natura, le persone registrate per l'analisi vocale saranno un po' nervose e probabilmente parleranno in modo rigoroso e rigido. Un modo è fare sessioni di registrazione molto più lunghe in un ambiente il più rilassato possibile. Dopo alcune ore, alcune persone potrebbero dimenticare di essere registrate e cadere in schemi di conversazione casuali.

L'ho visto giocare con il modo in cui le persone interagiscono con il riconoscimento vocale. All'inizio parlano lentamente e tendono a enunciare troppo. Col tempo, scivolano lentamente in quella che chiamerò modalità "Star Trek" e parlano come farebbero con un'altra persona.

Un problema simile è stato scoperto con gli sforzi di rilevamento delle emozioni.

Bird's Plus: «Dans un other changement, abbiamo ritirato le capacità dell'analisi facciale che intendono dedurre da stati emotivi e attributi identitari come sesso, età, sourire, poils du visage, les cheveux et il trucco. Collaboriamo con ricercatori interni ed esterni per comprendere i limiti e i potenziali vantaggi di questa tecnologia e superare i compromessi. Nel caso della classificazione delle emozioni in particolare, questi sforzi hanno sollevato importanti interrogativi sulla riservatezza, la mancanza di consenso su una definizione delle emozioni e l'incapacità di generalizzare il legame tra l'espressione facciale e lo stato emotivo tra i casi d'uso, le regioni e i dati demografici. . L'accesso API alle funzionalità che prevedono attributi sensibili apre anche un'ampia gamma di modi in cui possono essere utilizzati in modo improprio, incluso sottoporre le persone a stereotipi, discriminazioni o ingiusta negazione dei servizi. Per mitigare questi rischi, abbiamo scelto di non supportare un sistema generico nell'API Face che tenta di dedurre stati emotivi, sesso, età, sorriso, peli sul viso, capelli e trucco. Il rilevamento di questi attributi non sarà più disponibile per i nuovi clienti a partire dal 21 giugno 2022 e i clienti esistenti hanno tempo fino al 30 giugno 2023 per interrompere l'utilizzo di questi attributi prima che vengano ritirati.

Quando si tratta di rilevamento delle emozioni, è stato storicamente dimostrato che l'analisi facciale è molto meno accurata della semplice analisi vocale. Il riconoscimento vocale delle emozioni si è dimostrato molto efficace nelle applicazioni di call center, dove un cliente che sembra molto arrabbiato può essere immediatamente trasferito a un supervisore senior.

In una certa misura, questo aiuta Microsoft a capire che è il modo in cui vengono utilizzati i dati che deve essere limitato. In questo scenario di call center, se il software è sbagliato e il cliente non era davvero arrabbiato, non c'è nulla di male. Il supervisore termina semplicemente la chiamata normalmente. Nota: l'unico rilevamento di emozioni comuni con la voce che ho visto è quando il cliente è arrabbiato con la rete telefonica e la sua incapacità di comprendere frasi semplici. Il software pensa che il cliente sia arrabbiato con l'azienda. Un errore ragionevole.

Ma ancora una volta, se il software è difettoso, non viene fatto alcun danno.

Bird ha notato che alcuni casi d'uso possono ancora fare affidamento su queste funzionalità dell'IA in modo responsabile. "I clienti di Azure Cognitive Services possono ora sfruttare il pacchetto Fairlearn open source di Microsoft e il Fairness Dashboard per misurare l'equità degli algoritmi di verifica facciale di Microsoft sui propri dati, consentendo loro di identificare e risolvere potenziali problemi di equità." che possono interessare diversi gruppi demografici in precedenza. distribuire la loro tecnologia.

Bird ha anche affermato che i problemi tecnici hanno avuto un ruolo in alcune delle imprecisioni. “Mentre lavoravamo con i clienti che utilizzavano il nostro servizio Face, ci siamo anche resi conto che alcuni errori inizialmente attribuiti a problemi di correttezza erano dovuti alla scarsa qualità dell'immagine. Se l'immagine che qualcuno invia è troppo scura o sfocata, il modello potrebbe non essere in grado di abbinarla correttamente. Riconosciamo che questa scarsa qualità dell'immagine potrebbe essere ingiustamente concentrata tra i gruppi demografici.

Tra gruppi demografici? Non sono tutti, dal momento che tutti appartengono a un determinato gruppo demografico? Sembra un modo timido per dire che i non bianchi potrebbero avere una scarsa funzionalità di corrispondenza. Questo è il motivo per cui l'uso di questi strumenti da parte delle forze dell'ordine è così problematico. Una domanda chiave per l'IT: quali sono le conseguenze se il software è sbagliato? Il software è uno dei 50 strumenti utilizzati o si basa esclusivamente su di esso?

Microsoft ha affermato che sta lavorando per risolvere questo problema con un nuovo strumento. "Ecco perché Microsoft offre ai clienti una nuova API di qualità di riconoscimento che segnala problemi di illuminazione, sfocatura, occlusioni o angoli della testa nelle immagini inviate per la verifica facciale", ha affermato Bird. "Microsoft offre anche un'app di riferimento che fornisce suggerimenti in tempo reale per aiutare gli utenti a catturare immagini di qualità superiore che hanno maggiori probabilità di produrre risultati accurati".

In un'intervista al New York Times, Crampton ha notato che un altro problema era che "il cosiddetto classificatore di genere del sistema era binario" e questo non è coerente con i nostri valori"."

In breve, dice, anche se il sistema non pensa solo in termini di uomini e donne, non può facilmente etichettare le persone che si identificano in altri modi. In questo caso, Microsoft ha semplicemente scelto di smettere di provare a indovinare il sesso, che probabilmente è la scelta giusta.

Copyright © 2022 IDG Communications, Inc.

Condividi questo