Intelligenza artificiale: il Regno Unito e l'UE intraprendono un'azione legislativa - Convergenza o divergenza?

Intelligenza artificiale: il Regno Unito e l'UE intraprendono un'azione legislativa - Convergenza o divergenza?
Nel marzo di quest’anno, il governo del Regno Unito ha annunciato un forte programma di intelligenza artificiale (AI) lanciando un Consiglio per la sicurezza informatica del Regno Unito e rivelando la sua intenzione di lanciare una strategia nazionale sull’intelligenza artificiale (la strategia del Regno Unito). I dettagli della strategia del Regno Unito saranno pubblicati entro la fine dell’anno, ma a questo punto comprendiamo che si concentrerà in particolare sulla promozione della crescita dell’economia attraverso l’uso diffuso dell’intelligenza artificiale, concentrandosi allo stesso tempo sull’etica. sicurezza e sviluppo affidabile dell’IA, anche attraverso lo sviluppo di un quadro legislativo per l’IA che promuova la fiducia del pubblico e condizioni di parità. Poco dopo l’annuncio del governo britannico, la Commissione europea ha pubblicato una proposta per un quadro legislativo europeo sull’intelligenza artificiale (il regolamento UE) che fa parte del “pacchetto AI” complessivo della Commissione. Il regolamento dell’UE mira a garantire la sicurezza delle persone e la protezione dei diritti umani fondamentali e classifica l’IA come casi d’uso inaccettabili, ad alto o a basso rischio. Informazioni sugli autori Questo articolo è stato scritto da Mike Pierides, partner di Morgan Lewis, e Charlotte Roxon, partner

Regolamento UE

Il regolamento Ue propone di proteggere gli utenti “quando i rischi posti dai sistemi di intelligenza artificiale sono particolarmente elevati”. La definizione e le categorie dei casi d’uso dell’IA ad alto rischio sono ampie e comprendono molti, se non la maggior parte, dei casi d’uso che coinvolgono persone, compreso l’uso dell’IA nel contesto dell’identificazione biometrica e della categorizzazione delle persone fisiche, della gestione delle infrastrutture critiche e dell’occupazione. . e gestione dei lavoratori. Gran parte della regolamentazione dell’UE mira a imporre obblighi prescritti riguardo a questi casi d’uso ad alto rischio, compresi gli obblighi di eseguire “valutazioni del rischio” pertinenti, istituire sistemi di mitigazione come il monitoraggio umano e fornire informazioni trasparenti agli utenti. Prevediamo che, oltre a guidare le politiche sull’intelligenza artificiale tra i fornitori e gli utenti dell’intelligenza artificiale, molti di questi obblighi si rifletteranno nei clienti nei loro contratti con i fornitori di intelligenza artificiale. L’Unione Europea ha vietato i casi d’uso dell’intelligenza artificiale che ritiene una minaccia “inaccettabile” alla sicurezza, ai mezzi di sussistenza e ai diritti umani. Questi casi includono l'uso di sistemi di identificazione biometrica remota in tempo reale per scopi di applicazione della legge in spazi accessibili al pubblico (salvo diversamente consentito dalla legge) e l'uso di sistemi che implementano tecniche subliminali per distorcere il comportamento di una persona o sfruttare le "vulnerabilità" delle persone. . , in modo tale da causare o poter causare danni fisici o psicologici. Il regolamento UE ha inoltre definito casi d'uso dell'IA "a basso rischio" (ad esempio, l'uso nei filtri antispam) in cui non vengono imposti obblighi specifici, sebbene i fornitori di IA a basso rischio siano incoraggiati ad aderire a un codice di condotta di IA per garantire che la sua intelligenza artificiale sia i sistemi di intelligence sono affidabili. La non conformità potrebbe comportare pesanti sanzioni simili al GDPR per aziende e fornitori, con sanzioni proposte fino a 30 milioni di euro o al 6% delle entrate globali. Il regolamento UE ha applicazione extraterritoriale, il che significa che i fornitori di IA che rendono disponibili i loro sistemi nell’Unione Europea o i cui sistemi influenzano persone nell’Unione Europea o hanno produzione nell’Unione Europea, indipendentemente dal loro paese di stabilimento, devono rispettare la nuova normativa Normative UE.

Strategia del Regno Unito: quadro legislativo

Da un punto di vista legislativo, il punto di partenza del Regno Unito sulla legge sull’IA è simile a quello dell’Unione Europea, poiché la protezione dei dati personali è regolata principalmente dalla legislazione GDPR e dall’enfasi che questa legislazione pone sulla priorità dei diritti delle persone. Dopo la Brexit, il Regno Unito sta mostrando segni di volontà di deviare dall’”approccio europeo” sancito dal GDPR, come annunciato all’inizio di marzo il segretario digitale Oliver Dowden, anche se i dettagli di tale divergenza rimangono poco chiari. Ciò potrebbe indicare che il quadro legislativo del Regno Unito per l’IA si discosterà consapevolmente dalla proposta di regolamento dell’UE, probabilmente meno prescrittivo quando si tratta degli obblighi di fornitori e utenti rispetto a ciò che la Commissione europea ha definito “AI”. caso d'uso. Tuttavia, per ora, si tratta solo di una supposizione. Una delle sfide che il Regno Unito dovrà affrontare, così come con il GDPR, è l’impatto extraterritoriale della regolamentazione dell’UE e la necessità di garantire che i flussi di dati tra l’UE e il Regno Unito siano relativamente inalterati dalla Brexit.

Prossime fasi

Nel Regno Unito, il governo ha iniziato a collaborare con i fornitori e i consumatori di intelligenza artificiale sulla tabella di marcia dell’AI Council, che continuerà durante tutto l’anno per sviluppare la strategia del Regno Unito. Nell’Unione Europea, affinché il regolamento UE entri in vigore, il Parlamento Europeo e gli Stati membri dell’UE dovranno adottare le proposte della Commissione Europea sull’intelligenza artificiale. Con i dettagli sostanziali della strategia del Regno Unito ancora sconosciuti, gli operatori di mercato osserveranno attentamente in che misura la nuova strategia del Regno Unito si allinea con il quadro legislativo proposto dalla Commissione Europea.