Microsoft annulla la scansione del riconoscimento facciale, ma rimangono grandi domande

Microsoft annulla la scansione del riconoscimento facciale, ma rimangono grandi domande

Microsoft nega il supporto pubblico per alcune funzionalità basate sull'intelligenza artificiale, incluso il riconoscimento facciale, e riconosce i problemi di discriminazione e accuratezza creati da queste offerte. Ma l'azienda ha avuto anni per risolvere i problemi e non è riuscita a farlo. È come una casa automobilistica che richiama un veicolo invece di ripararlo.

Nonostante i timori che la tecnologia di riconoscimento facciale possa essere discriminatoria, il vero problema è che i risultati sono imprecisi. (Tuttavia, l'argomento discriminatorio gioca un ruolo a causa delle ipotesi fatte dagli sviluppatori Microsoft durante la creazione di queste app.)

Cominciamo con ciò che Microsoft ha fatto e detto. Sarah Bird, senior product manager per il gruppo Microsoft Azure AI, ha riassunto il respingimento del mese scorso in un post sul blog Microsoft.

"A partire da oggi (21 giugno), i nuovi clienti devono richiedere l'accesso per utilizzare le operazioni di riconoscimento facciale nell'API Face, nella visione artificiale e nell'indicizzatore video di Azure. I clienti esistenti hanno un anno per richiedere e ricevere l'approvazione per l'accesso continuo ai servizi di riconoscimento facciale in base ai casi d'uso forniti. Introducendo l'accesso limitato, stiamo aggiungendo un ulteriore livello di controllo all'uso e all'implementazione del riconoscimento facciale per garantire che l'uso di questi servizi sia in linea con lo standard di intelligenza artificiale responsabile di Microsoft e apporti vantaggi di alto valore all'utente, alla fine e alla società. Ciò include l'introduzione dei termini di utilizzo e l'idoneità del cliente ad accedere a questi servizi.

"Le funzionalità di rilevamento del volto, tra cui sfocatura del viso, esposizione, occhiali, posizione della testa, punti di riferimento, rumore, occlusione e rilevamento del riquadro di delimitazione, continueranno a essere generalmente disponibili e non richiederanno un'app".

Guarda questa seconda frase, in cui Bird evidenzia questo cerchio aggiuntivo che gli utenti devono superare "per garantire che l'uso di questi servizi sia in linea con lo standard di Microsoft per l'IA responsabile e aiuti gli utenti finali a realizzare vantaggi sociali e di alto valore".

Sicuramente suona bene, ma è davvero questo che fa questo cambiamento? O Microsoft si fiderà di esso solo per impedire alle persone di utilizzare l'app dove le imprecisioni sono maggiori?

Una delle situazioni che Microsoft ha discusso riguarda il riconoscimento vocale, in cui ha rilevato che "la tecnologia di sintesi vocale nel settore tecnologico ha prodotto tassi di errore per i membri di alcune comunità nere e afroamericane che erano quasi il doppio di quelli degli utenti". ", ha detto Natasha Crampton. , direttore responsabile dell'IA di Microsoft. "Abbiamo fatto un passo indietro, esaminato i risultati dello studio e scoperto che i nostri test pre-pubblicazione non avevano catturato in modo soddisfacente la ricca diversità di linguaggio tra persone di diversa estrazione e di diverse regioni".

Un altro problema identificato da Microsoft è che le persone di tutti i ceti sociali tendono a parlare in modo diverso in contesti formali e informali. Oh va bene? Gli sviluppatori non lo sapevano prima? Scommetto che l'hanno fatto, ma non hanno pensato alle implicazioni del non fare nulla.

Un modo per risolvere questo problema consiste nel riesaminare il processo di raccolta dei dati. Per loro stessa natura, le persone registrate per l'analisi vocale saranno un po' nervose e probabilmente parleranno in modo rigoroso e rigido. Un modo è fare sessioni di registrazione molto più lunghe in un ambiente il più rilassato possibile. Dopo alcune ore, alcune persone potrebbero dimenticare di essere registrate e cadere in schemi di conversazione casuali.

L'ho visto giocare con il modo in cui le persone interagiscono con il riconoscimento vocale. All'inizio parlano lentamente e tendono ad enunciare troppo. Nel corso del tempo, scivolano lentamente in quella che chiamerò modalità "Star Trek" e parlano come farebbero con un'altra persona.

Un problema simile è stato scoperto con gli sforzi di rilevamento delle emozioni.

Plus de Bird: «Dans un altro cambiamento, abbiamo ritirato le capacités d'analyse faciale qui prétendent déduire des états émotionnels et des attribute d'identité tels que le sexe, l'âge, le sourire, les poils du visage, les cheveux et il trucco. Collaboriamo con ricercatori interni ed esterni per comprendere i limiti e i potenziali benefici di questa tecnologia e navigare tra vantaggi e svantaggi. Nel caso della classificazione delle emozioni in particolare, questi sforzi hanno sollevato importanti questioni sulla riservatezza, la mancanza di consenso su una definizione di emozioni e l'incapacità di generalizzare il legame tra espressione facciale e stato emotivo attraverso casi d'uso, regioni e dati demografici. . L'accesso API alle funzionalità che prevedono attributi sensibili apre anche un'ampia gamma di modi in cui possono essere utilizzati in modo improprio, incluso sottoporre le persone a stereotipi, discriminazioni o negazione ingiusta dei servizi. Per mitigare questi rischi, abbiamo scelto di non supportare un sistema generico nell'API Face che afferma di dedurre stati emotivi, sesso, età, sorriso, barba, capelli e trucco. Il rilevamento di questi attributi non sarà più disponibile per i nuovi clienti a partire dal 21 giugno 2022 e i clienti esistenti avranno tempo fino al 30 giugno 2023 per interrompere l'utilizzo di questi attributi prima di essere ritirati.

Quando si tratta di rilevamento delle emozioni, è stato storicamente dimostrato che l'analisi facciale è molto meno accurata della semplice analisi vocale. Il riconoscimento vocale delle emozioni si è dimostrato molto efficace nelle applicazioni di call center, dove un cliente che sembra molto arrabbiato può essere immediatamente trasferito a un supervisore senior.

In una certa misura, questo aiuta Microsoft a capire che è il modo in cui vengono utilizzati i dati che deve essere limitato. In questo scenario di call center, se il software è sbagliato e il cliente non era davvero arrabbiato, non c'è nulla di male. Il supervisore termina semplicemente la chiamata normalmente. Nota: l'unico rilevamento di emozioni comuni con la voce che ho visto è quando il cliente è arrabbiato con la rete telefonica e la sua incapacità di comprendere frasi semplici. Il software pensa che il cliente sia arrabbiato con l'azienda. Un errore ragionevole.

Ma ancora una volta, se il software è difettoso, non viene fatto alcun danno.

Bird ha notato che alcuni casi d'uso possono ancora fare affidamento su queste funzionalità di intelligenza artificiale in modo responsabile. "I clienti di Azure Cognitive Services possono ora sfruttare il pacchetto open source Fairlearn e Fairness Dashboard di Microsoft per misurare l'equità degli algoritmi di verifica facciale di Microsoft sui propri dati, consentendo loro di identificare e affrontare potenziali problemi di equità. che possono influire su diversi dati demografici prima della distribuzione la loro tecnologia.

Bird ha anche affermato che i problemi tecnici hanno avuto un ruolo in alcune delle imprecisioni. "Lavorando con i clienti che utilizzavano il nostro servizio Face, ci siamo anche resi conto che alcuni errori inizialmente attribuiti a problemi di equità erano dovuti alla scarsa qualità dell'immagine. Se l'immagine inviata da qualcuno è troppo scura o sfocata, è possibile che il modello non riesca a corrispondere Riconosciamo che questa scarsa qualità dell'immagine può essere ingiustamente concentrata tra i gruppi demografici.

Tra gruppi demografici? Non sono tutti, dal momento che tutti appartengono a un determinato gruppo demografico? Sembra un modo timido per dire che i non bianchi potrebbero avere una scarsa funzionalità di corrispondenza. Questo è il motivo per cui l'uso di questi strumenti da parte delle forze dell'ordine è così problematico. Una domanda chiave per l'IT: quali sono le conseguenze se il software è sbagliato? Il software è uno dei 50 strumenti utilizzati o si basa esclusivamente su di esso?

Microsoft ha affermato che sta lavorando per risolvere questo problema con un nuovo strumento. "Ecco perché Microsoft offre ai clienti una nuova API per la qualità del riconoscimento che segnala problemi di illuminazione, sfocatura, occlusioni o angolo della testa nelle immagini inviate per la verifica facciale", ha affermato Bird. "Microsoft offre anche un'applicazione di riferimento che fornisce suggerimenti in tempo reale per aiutare gli utenti a catturare immagini di qualità superiore che hanno maggiori probabilità di produrre risultati accurati".

In un'intervista con il New York Times, Crampton ha osservato che un altro problema era che "il cosiddetto classificatore di genere del sistema era binario 'e non è coerente con i nostri valori'".

In breve, dice, anche se il sistema non pensa solo in termini di uomini e donne, non può facilmente etichettare le persone che si identificano in altri modi. In questo caso, Microsoft ha semplicemente scelto di smettere di provare a indovinare il sesso, che probabilmente è la scelta giusta.

Copyright © 2022 IDG Communications, Inc.