Combatti i fallimenti con la tecnologia biometrica vocale.

Combatti i fallimenti con la tecnologia biometrica vocale.

Ad ogni progresso tecnologico, sembra esserci un corrispondente progresso nello sfruttamento di questa tecnologia per scopi dannosi. Ciò è particolarmente vero nel settore dei servizi finanziari, dove i metodi utilizzati per interagire con le nostre banche hanno prodotto una nuova forma di "rapinatore di banche". Quando le transazioni consistevano unicamente nell'andare a una filiale di una banca, la minaccia di perdite finanziarie consisteva principalmente in un attacco armato. ladro. Tuttavia, l'avvento di Internet ha segnato l'introduzione dell'online banking, un vantaggio tecnologico decisivo per banche e clienti. Ha inoltre introdotto una nuova generazione di rapinatori di banche sotto forma di programmatori e hacker. Le nuove tecniche di volo non erano basate sulle armi da fuoco, ma su tecniche di ingegneria sociale, come il phishing, oltre a tecniche molto più avanzate, come il malware Man-in-the-Mal. -Medio e Man-in-the-Browser. Diventando computer che distribuiscono denaro, sono stati l'obiettivo di attacchi di malware. Inoltre, le app per smartphone non sono state immuni al malware che prende di mira i rispettivi sistemi operativi. I nostri sforzi per contrastare questi attacchi sono spesso basati anche su tecnologie, come l'uso dell'autenticazione a 2 fattori tramite codici di autorizzazione basati su SMS. Non sorprende, quindi, che queste tecniche siano state prese di mira anche da tecniche come gli attacchi di scambio di SIM e persino l'hacking della rete di telecomunicazioni globale SS7.Deepfakes. Esiste una nuova tecnologia nota come Deepfake che, sebbene abbia origini molto lontane, riteniamo che potrà essere utilizzata come nuovo e potente vettore di frode. Depefake è l'uso del Machine Learning per creare imitazioni audio / visive di persone reali. Utilizza una tecnica nota come Generative Adversarial Network (GAN), che può generare nuovi dati da set di dati esistenti. Ciò include immagini e suoni. Ad esempio, i file audio / video esistenti di una persona che parla possono essere utilizzati per generare un nuovo video / suono sintetico, a seconda di ciò che l'algoritmo ha appreso dal video / suono effettivo. Sebbene inizialmente sia stato utilizzato per trasporre le celebrità in film porno, le possibilità dannose di Deepfakes vanno dalla falsificazione di informazioni false alla televisione, cioè ora possiamo vedere che l'obiettivo ci parla personalmente. Notizie false, manipolazione elettorale, guerra di disinformazione e un modo completamente nuovo. Il declino della carta stampata a favore della ricezione digitale delle nostre notizie non è solo pratico, ma ha anche introdotto contenuti molto più ricchi. audio e video Ci sono siti praticamente illimitati che possiamo visitare per avere notizie e contenuti. Se vediamo un videoclip di una persona, sconosciuta o meno, che trasmette un messaggio, non abbiamo motivo di sospettare che questo video sia falso. Questo fornisce un forum chiavi in ​​mano per coloro che cercano di diffondere notizie false tramite Deepfakes Mago: Shutterstock (Immagine: © Shutterstock) Potenziale impatto sui servizi finanziari Perché Deepfake può influire anche sui servizi finanziari? Le informazioni vengono sempre più diffuse in forma digitale, così come i servizi bancari. Le strategie di comunicazione omnicanale e unificata coinvolgono le banche che comunicano con i propri clienti utilizzando, ad esempio, un sistema audio / video basato su browser. Potrebbe essere con un agente umano, ma in futuro anche con agenti basati sull'intelligenza artificiale (AI). Pertanto, non è difficile immaginare, quindi, una conversazione video / audio tra un ricco cliente e il suo banchiere privato. Se il cliente somiglia a se stesso e ovviamente può fornire risposte a tutte le domande di sicurezza (come farebbe sempre), perché il banchiere non accetta nessuna delle istruzioni fornite dal cliente? Una scala molto più ampia con le banche che utilizzano la tecnologia di riconoscimento facciale per autenticare i clienti su siti Web e app mobili? Ciò potrebbe comportare il self-service, l'interazione con un agente umano o un chatbot AI. Se la faccia corrisponde, e ricordando che Deepfakes non è statico, mostrano una vivacità, verranno eseguite transazioni fraudolente. Questi sono solo due esempi che coinvolgono le interazioni con i clienti. Le comunicazioni e le istruzioni interbancarie potrebbero essere compromesse allo stesso modo, senza dubbio, che l'autore non ha nemmeno considerato. Essere facilmente identificabili da un collega o da un lavoratore esterno potrebbe diventare la chiave per sfruttare la tecnologia Deepfake. Nessuno vuole contestare l'identità di una persona conosciuta che sembra e suona perfettamente normale. Rilevamento di un deepfake Allora come rileviamo che ciò che sembra reale ai nostri occhi e che suona davvero alle nostre orecchie è effettivamente sbagliato? La risposta sta nell'audio di un Deepfake e nell'uso di tecniche biometriche vocali avanzate. Indipendentemente dall'aspetto reale e "umano" di un Deepfake, viene generato sinteticamente. Anche i video Deepfake includono invariabilmente un componente audio, e questo è ciò che l'audio è la chiave per il suo rilevamento. Gli algoritmi biometrici vocali avanzati includono tecniche per rilevare sia le registrazioni, chiamate attacchi di presentazione o riproduzione, sia audio generato sinteticamente. Indipendentemente dal modo in cui una voce "umana" può suonare all'orecchio umano, non è ciò che sembra essere importante per i motori di rilevamento sintetico. La loro interpretazione del fatto che l'audio sia pronunciato o meno da un essere umano è molto diversa dalla nostra. La biometria vocale è sempre stata il modo più potente e accurato per autenticare o identificare la vera identità di un essere umano. La capacità dei più avanzati motori vocali biometrici di identificare simultaneamente la distinzione tra un essere umano e un "umano" generato sinteticamente può essere inestimabile se assistiamo veramente all'ascesa dei Deepfakes.