Microsoft non vuole più che l'IA riconosca le tue emozioni

Microsoft sta aggiornando il suo standard di intelligenza artificiale responsabile e ha rivelato che sta rimuovendo le capacità di riconoscimento facciale ed emotivo da Azure Face (per la maggior parte).

Lo standard di intelligenza artificiale responsabile (si apre in una nuova scheda) è l'insieme di regole interne di Microsoft per la creazione di sistemi di intelligenza artificiale. L'azienda vuole che l'IA sia una forza positiva nel mondo e che non venga mai utilizzata in modo improprio da cattivi attori. È uno standard che non è mai stato condiviso con il pubblico. Tuttavia, con questa nuova modifica, Microsoft ha deciso che ora è il momento.

Il software di riconoscimento facciale ed emotivo è stato controverso, per non dire altro. Molte organizzazioni chiedono che questa tecnologia venga bandita. Fight for the Future, ad esempio, per scrivere una lettera su richiesta, a Zoom d'arrêter are propre d'veloppement de logiciel de suivi émotionnel et l'a qualifié d'”invasif” et de “violation de la vie privée et des diritti dell'uomo».

Cambiamento di politica

Non sorprende che Microsoft modificherà il suo servizio Azure Face per soddisfare i requisiti del suo nuovo standard di intelligenza artificiale responsabile. In primo luogo, l'azienda sta rimuovendo l'accesso del pubblico alla capacità di analisi delle emozioni dell'IA. In secondo luogo, Azure Face non sarà più in grado di identificare le caratteristiche facciali di una persona, inclusi "sesso, età, [un] sorriso, peli sul viso, acconciatura e trucco.

Il motivo del ritiro è che la comunità scientifica mondiale non ha ancora "un chiaro consenso sulla definizione di 'emozioni'". Natasha Cramption, il direttore responsabile dell'intelligenza artificiale di Microsoft, ha affermato che esperti interni ed esterni all'azienda hanno sollevato preoccupazioni. Il problema risiede nelle "sfide relative al modo in cui le inferenze si generalizzano tra casi d'uso, regioni e dati demografici e le crescenti preoccupazioni sulla privacy..."

Oltre ad Azure Face, la voce neurale personalizzata di Microsoft vedrà restrizioni simili. La voce neurale personalizzata (si apre in una nuova scheda) è un'app di sintesi vocale incredibilmente realistica. Ora il servizio sarà limitato a pochi "clienti e partner gestiti", ovvero persone che lavorano direttamente con i team di account Microsoft. L'azienda afferma che, sebbene la tecnologia abbia un grande potenziale, può essere utilizzata per il furto di identità. Per continuare ad avere accesso a Neural Voice, tutti i clienti esistenti devono inviare un modulo di registrazione ed essere approvati da Microsoft. Devono essere approvati entro il 30 giugno 2023 e, se non selezionati, questi clienti non avranno più accesso a Neural Voice.

ancora a lavoro

Nonostante tutto ciò che è stato detto, Microsoft non sta abbandonando completamente la sua tecnologia di riconoscimento facciale. L'annuncio è solo ad accesso pubblico. Sarah Bird, Senior Group Project Manager presso Azure AI, ha scritto sul riconoscimento facciale responsabile (si apre in una nuova scheda). E in quell'articolo, afferma che "Microsoft riconosce che queste funzionalità possono essere utili se utilizzate per una varietà di scenari di accessibilità controllata". Secondo un rappresentante, uno di questi scenari è Seeing AI (si apre in una nuova scheda), un'app iOS che aiuta le persone ipovedenti a identificare le persone e gli oggetti intorno a loro.

È bello vedere un altro gigante della tecnologia riconoscere i problemi di riconoscimento facciale e il potenziale di abuso. IBM ha fatto qualcosa di simile nel 2020, sebbene il suo approccio sia più assoluto.

Nel 2020, IBM ha annunciato che avrebbe abbandonato il suo lavoro sul riconoscimento facciale perché l'azienda temeva che sarebbe stato utilizzato in modo improprio per la sorveglianza di massa. Vedere questi due titani del settore sbarazzarsi di questa tecnologia è una vittoria per i critici del riconoscimento facciale. Se vuoi saperne di più sull'IA, TechRadar ha recentemente pubblicato un articolo su cosa può fare per la sicurezza informatica.

Condividi questo