Non entusiasmarti troppo per la lettura delle emozioni dell'intelligenza artificiale

Non entusiasmarti troppo per la lettura delle emozioni dell'intelligenza artificiale

Chiamatela “intelligenza emotiva artificiale”: il tipo di intelligenza artificiale (AI) che ora può rilevare lo stato emotivo di un utente umano.

O può?

Ancora più importante, dovrei?

La maggior parte delle IA emotive si basa sulla teoria delle "emozioni di base", secondo la quale le persone sperimentano universalmente sei stati emotivi interni: felicità, sorpresa, paura, disgusto, rabbia e tristezza, e possono trasmettere questi stati attraverso l'espressione facciale, il linguaggio del corpo e la voce . . intonazione.

Nel mondo post-pandemia del lavoro a distanza, i venditori hanno difficoltà a “leggere” le persone a cui vendono tramite videochiamate. Non sarebbe bello se il software trasmettesse la reazione emotiva all'altro capo della chiamata?

Aziende come Uniphore e Sybill ci stanno lavorando. L'app "Q for Sales" di Uniphore, ad esempio, elabora segnali non verbali e il linguaggio del corpo attraverso video, e l'intonazione vocale e altri dati attraverso l'audio, risultando in un "dashboard delle emozioni".

Creare connessioni umane attraverso i computer

Lo stesso Zoom flirta con l’idea. Zoom in aprile ha presentato un test di Zoom IQ for Sales, che genera trascrizioni delle chiamate Zoom per gli organizzatori della riunione insieme all'"analisi del sentiment", non in tempo reale ma dopo la riunione; La critica è stata dura.

Mentre alcune persone amano l’idea di farsi aiutare dall’intelligenza artificiale per leggere le emozioni, altri detestano l’idea che i loro stati emotivi vengano giudicati e trasmessi dalle macchine.

Se debbano essere utilizzati strumenti di rilevamento delle emozioni basati sull’intelligenza artificiale è una questione importante che molte industrie e il pubblico in generale devono affrontare.

Le assunzioni potrebbero trarre vantaggio dall’intelligenza artificiale emotiva, consentendo agli intervistatori di comprendere veridicità, sincerità e motivazione. I team delle risorse umane e i responsabili delle assunzioni desiderano classificare i candidati in base alla loro volontà di apprendere e al loro entusiasmo nell'entrare in un'azienda.

All’interno del governo e delle forze dell’ordine, sono in aumento anche le richieste di un’intelligenza artificiale in grado di rilevare le emozioni. Gli agenti della polizia di frontiera e i funzionari della Homeland Security vogliono la tecnologia per catturare contrabbandieri e impostori. Le forze dell’ordine vedono l’intelligenza artificiale emotiva come uno strumento negli interrogatori di polizia.

Emotion AI ha applicazioni nel servizio clienti, nella valutazione della pubblicità e persino nella guida sicura.

È solo questione di tempo prima che l'intelligenza artificiale emotiva appaia nelle applicazioni aziendali quotidiane, trasmettendo ai dipendenti i sentimenti degli altri durante chiamate e riunioni di lavoro e offrendo consulenza continua sulla salute mentale sul lavoro.

Perché l’intelligenza artificiale emotiva disturba le persone

Sfortunatamente, la “scienza” del rilevamento delle emozioni è ancora una sorta di pseudoscienza. Il problema pratico con l’intelligenza artificiale sensibile alle emozioni, a volte chiamata calcolo affettivo, è semplice: le persone non sono così facili da leggere. Questo sorriso è il risultato della felicità o dell'imbarazzo? Questo cipiglio deriva da un profondo sentimento interiore, oppure è ironico o scherzoso?

Affidarsi all’intelligenza artificiale per rilevare lo stato emotivo degli altri può facilmente portare a malintesi. Se applicata a compiti consecutivi, come assunzioni o applicazione della legge, l’intelligenza artificiale può fare più male che bene.

È anche vero che le persone spesso mascherano il proprio stato emotivo, soprattutto negli incontri di lavoro e di vendita. L’intelligenza artificiale è in grado di rilevare le espressioni facciali, ma non i pensieri e i sentimenti che stanno dietro ad esse. Gli uomini d'affari sorridono, annuiscono e accigliano empaticamente perché è appropriato nelle interazioni sociali, non perché stanno rivelando i loro veri sentimenti.

Invece, le persone possono scavare più a fondo, trovare la Meryl Streep che è in loro e fingere l’entusiasmo per ottenere il lavoro o mentire alla Sicurezza Nazionale. In altre parole, sapere che viene applicata l’intelligenza artificiale emotiva crea un incentivo perverso ad armeggiare con la tecnologia.

Ciò porta al dilemma più grande riguardo all’intelligenza artificiale emotiva: è etico utilizzarla negli affari? Le persone vogliono che l’intelligenza artificiale legga e giudichi le loro emozioni?

In genere, le persone che partecipano, ad esempio, a una riunione di vendita, vogliono controllare le emozioni che trasmettono. Se sorrido e sembro emozionato e ti dico che sono felice ed entusiasta di un prodotto, servizio o iniziativa, voglio che tu ci creda: non trascurare il mio intento comunicativo e scoprire i miei veri sentimenti senza il mio permesso.

I venditori devono essere in grado di leggere le emozioni che i potenziali clienti cercano di trasmettere, non quelle che vogliono mantenere segrete. Man mano che ci avviciniamo a una migliore comprensione di come funziona l’intelligenza artificiale emotiva, sembra sempre più una questione di privacy.

Le persone hanno il diritto di avere emozioni private. Ed è per questo che penso che Microsoft stia diventando leader nell'applicazione etica dell'intelligenza artificiale emotiva.

Come Microsoft ha successo

Microsoft, che ha sviluppato alcune tecnologie di rilevamento delle emozioni abbastanza avanzate, le ha successivamente rimosse come parte di una revisione delle sue politiche etiche sull’intelligenza artificiale. Il suo strumento principale, chiamato Azure Face, potrebbe anche stimare sesso, età e altri attributi.

"Gli esperti interni ed esterni all'azienda hanno sottolineato la mancanza di consenso scientifico sulla definizione di 'emozioni', le sfide nel modo in cui le inferenze si generalizzano tra casi d'uso, regioni e dati demografici, e le crescenti preoccupazioni sulla privacy intorno a questo tipo di funzionalità," Natasha Crampton , ha scritto il capo dell'intelligenza artificiale di Microsoft in un post sul blog.

Microsoft continuerà a utilizzare la tecnologia di riconoscimento delle emozioni nella sua app di accessibilità, chiamata Seeing AI, per gli utenti ipovedenti. E penso che sia anche la scelta giusta. Usare l’intelligenza artificiale per dare potere alle persone ipovedenti, o ad esempio alle persone con autismo che potrebbero essere colpite dalla loro difficoltà a leggere le emozioni e le reazioni degli altri, è un grande uso di questa tecnologia. E penso che abbia un ruolo importante da svolgere nella prossima era degli occhiali per realtà aumentata.

Microsoft non è l’unica organizzazione che spinge lo spirito dell’intelligenza artificiale emotiva.

L’AI Now Institute e la Brookings Institution sostengono il divieto di molti usi dell’intelligenza artificiale per il rilevamento delle emozioni. E più di 25 organizzazioni hanno chiesto a Zoom di porre fine ai suoi piani per utilizzare il rilevamento delle emozioni nel software di videoconferenza dell’azienda.

Tuttavia, alcune società di software stanno facendo progressi con questi strumenti e trovano clienti.

Nella maggior parte dei casi, e per ora, l’uso di strumenti di intelligenza artificiale emotiva può essere sbagliato, ma per lo più innocuo, a condizione che tutte le persone coinvolte vi acconsentano veramente. Ma man mano che la tecnologia migliora e la tecnologia di interpretazione del linguaggio del viso e del corpo si avvicina alla lettura del pensiero e al rilevamento delle bugie, ciò potrebbe avere gravi implicazioni per le imprese, il governo e la società.

E, naturalmente, c’è un altro elefante nella stanza: anche il campo dell’informatica affettiva sta cercando di sviluppare un’intelligenza artificiale conversazionale in grado di simulare le emozioni umane. E mentre una certa simulazione delle emozioni è necessaria per il realismo, troppa può ingannare gli utenti facendogli credere che l’IA sia senziente o senziente. In realtà, questa convinzione sta già accadendo su larga scala.

Nel complesso, tutto ciò fa parte di una nuova fase nell’evoluzione dell’intelligenza artificiale e del nostro rapporto con la tecnologia. Mentre apprendiamo che può risolvere una miriade di problemi, scopriamo anche che può crearne di nuovi.

Copyright © 2022 IDG Communications, Inc.