Microsoft non vuole più che l'intelligenza artificiale riconosca le tue emozioni, soprattutto

Microsoft non vuole più che l'intelligenza artificiale riconosca le tue emozioni, soprattutto

Microsoft sta aggiornando il suo standard di intelligenza artificiale responsabile e ha rivelato che sta rimuovendo le funzionalità di riconoscimento facciale ed emotivo da Azure Face (per la maggior parte).

Lo standard di intelligenza artificiale responsabile (si apre in una nuova scheda) è l'insieme di regole interne di Microsoft per la creazione di sistemi di intelligenza artificiale. L’azienda vuole che l’intelligenza artificiale sia una forza positiva nel mondo e non venga mai utilizzata in modo improprio da cattivi attori. È uno standard che non è mai stato condiviso con il pubblico prima. Tuttavia, con questo nuovo cambiamento, Microsoft ha deciso che ora è il momento.

I software di riconoscimento facciale ed emotivo sono stati a dir poco controversi. Molte organizzazioni chiedono che questa tecnologia venga vietata. Fight for the Future, ad esempio, a écrit une lettre ouverte en mai demandant à Zoom d'arrêter son propre développement delogiciel de suivi émotionnel et l'a qualifié d '"invasif" et de "violation de la vie privée et des droits dell'uomo."

Cambiamento di politica

Come previsto, Microsoft modificherà il suo servizio Azure Face per soddisfare i requisiti del suo nuovo standard di intelligenza artificiale responsabile. Innanzitutto, l’azienda sta rimuovendo l’accesso pubblico alle capacità di analisi delle emozioni dell’intelligenza artificiale. In secondo luogo, Azure Face non sarà più in grado di identificare le caratteristiche facciali di una persona, tra cui "sesso, età, sorriso, peli del viso, acconciatura e trucco.

Il motivo del ritiro è che la comunità scientifica globale non ha ancora un "chiaro consenso sulla definizione di 'emozioni'". Natasha Cramption, responsabile dell'intelligenza artificiale di Microsoft, ha affermato che esperti interni ed esterni all'azienda hanno espresso preoccupazione. Il problema risiede nelle "sfide su come le inferenze si generalizzano tra casi d'uso, regioni e dati demografici, e nella crescente preoccupazione per la privacy..."

Oltre ad Azure Face, la voce neurale personalizzata di Microsoft vedrà restrizioni simili. Custom Neural Voice (si apre in una nuova scheda) è un'app di sintesi vocale incredibilmente realistica. Ora il servizio sarà limitato ad alcuni “clienti e partner gestiti”, ovvero persone che lavorano direttamente con i team degli account Microsoft. L'azienda afferma che, sebbene la tecnologia abbia un grande potenziale, può essere utilizzata per il furto di identità. Per continuare ad avere accesso a Neural Voice, tutti i clienti esistenti devono inviare un modulo di registrazione ed essere approvati da Microsoft. Devono essere approvati entro il 30 giugno 2023 e, se non selezionati, questi clienti non avranno più accesso a Neural Voice.

ancora a lavoro

Nonostante tutto quanto detto, Microsoft non abbandona del tutto la sua tecnologia di riconoscimento facciale. L'annuncio è riservato all'accesso del pubblico. Sarah Bird, Senior Group Project Manager presso Azure AI, ha scritto sul riconoscimento facciale responsabile (si apre in una nuova scheda). E in quell'articolo si afferma che "Microsoft riconosce che queste funzionalità possono essere utili se utilizzate per una varietà di scenari di accessibilità controllata". Secondo un rappresentante, uno di questi scenari è Seeing AI (si apre in una nuova scheda), un'app iOS che aiuta le persone ipovedenti a identificare le persone e gli oggetti intorno a loro.

È bello vedere un altro gigante della tecnologia riconoscere i problemi di riconoscimento facciale e il potenziale di abuso. IBM ha fatto qualcosa di simile nel 2020, sebbene il suo approccio sia più assoluto.

Nel 2020, IBM ha annunciato che avrebbe abbandonato il suo lavoro sul riconoscimento facciale perché temeva che sarebbe stato utilizzato in modo improprio per la sorveglianza di massa. Vedere questi due titani del settore abbandonare questa tecnologia è una vittoria per i critici del riconoscimento facciale. Se vuoi saperne di più sull’intelligenza artificiale, LaComparacion ha recentemente pubblicato un articolo su cosa può fare per la sicurezza informatica.