Stati Uniti e Cina compiono i primi passi verso la regolamentazione dell'IA generativa


Mentre gli Stati Uniti e la Cina sono feroci rivali in campo tecnologico, entrambi sembrano avere qualcosa di nuovo in comune: le preoccupazioni sulla responsabilità e il potenziale uso improprio dell'intelligenza artificiale. Martedì, i governi di entrambi i paesi hanno rilasciato annunci sulla regolamentazione dello sviluppo dell'IA.

La National Telecommunications and Information Administration (NTIA), un ramo del Dipartimento del Commercio degli Stati Uniti, ha emesso una richiesta pubblica formale di commento sulle politiche che dovrebbero plasmare un ecosistema di responsabilità dell'IA.

Questi includono domande sull'accesso ai dati, sulla misurazione della responsabilità e su come gli approcci all'IA possono variare nei diversi settori industriali, come l'occupazione o l'assistenza sanitaria.

I commenti scritti in risposta alla richiesta devono essere forniti all'NTIA entro e non oltre il 10 giugno 2023, 60 giorni dalla data di pubblicazione nel registro federale.

La notizia arriva nello stesso giorno in cui la Cyberspace Administration of China (CAC) ha svelato una serie di misure preliminari per la gestione dei servizi di IA generativa, inclusa la responsabilità dei fornitori per la validità dei dati utilizzati per la formazione degli strumenti di IA generativa.

Il CAC ha affermato che i fornitori dovrebbero essere ritenuti responsabili della validità dei dati utilizzati per addestrare gli strumenti di intelligenza artificiale e che dovrebbero essere prese misure per evitare discriminazioni durante la progettazione di algoritmi di addestramento e set di dati, secondo un rapporto di Reuters. Le aziende dovranno inoltre presentare valutazioni di sicurezza al governo prima di rilasciare al pubblico i loro strumenti di intelligenza artificiale.

Se le loro piattaforme generano contenuti inappropriati, le aziende devono aggiornare la tecnologia entro tre mesi per evitare che contenuti simili vengano generati nuovamente, secondo la bozza delle regole. Il mancato rispetto delle regole comporterà multe ai fornitori, sospensione dei loro servizi o indagini penali.

Qualsiasi contenuto generato dall'IA generativa deve essere coerente con i valori socialisti fondamentali del paese, ha affermato il CAC.

I giganti della tecnologia cinese hanno compiuto buoni progressi nello sviluppo dell'IA. L'annuncio di CAC è arrivato lo stesso giorno in cui Alibaba Cloud ha annunciato un nuovo modello di linguaggio host, chiamato Tongyi Qianwen, che implementerà come interfaccia in stile ChatGPT per tutte le sue applicazioni aziendali. Il mese scorso, un altro gigante cinese di servizi Internet e intelligenza artificiale, Baidu, ha annunciato un'alternativa ChatGPT in lingua cinese, Ernie bot.

Regolamentazione AI vs innovazione

Mentre il governo cinese ha stabilito una serie chiara di linee guida normative, altri governi in tutto il mondo stanno adottando un approccio diverso.

Il mese scorso, il governo del Regno Unito ha affermato che per "evitare una legislazione gravosa che potrebbe soffocare l'innovazione", aveva scelto di non cedere la responsabilità della governance dell'IA a un singolo nuovo regolatore, ma ha invece chiesto ai regolatori esistenti di offrire la propria. approcci che meglio si adattano al modo in cui l'IA viene utilizzata nei loro settori.

Tuttavia, questo approccio è stato criticato da alcuni, con esperti del settore che sostengono che i quadri esistenti potrebbero non essere in grado di regolamentare efficacemente l'IA a causa della natura complessa e multilivello di alcuni strumenti di IA, il che significa che la fusione tra diversi regimi sarà inevitabile. .

Inoltre, l'autorità di regolamentazione dei dati del Regno Unito ha emesso un avviso alle società tecnologiche in merito alla protezione delle informazioni personali durante lo sviluppo e l'implementazione di modelli di intelligenza artificiale generativa in linguaggio lungo, mentre l'autorità di regolamentazione italiana della privacy dei dati ha vietato ChatGPT per presunta violazione della privacy. Un gruppo di 1100 leader tecnologici e scientifici ha anche chiesto una pausa di sei mesi sullo sviluppo di sistemi più potenti del GPT-4 recentemente rilasciato da OpenAI.

Quando si tratta di innovazione tecnologica e regolamentazione, esiste un certo percorso naturale che la maggior parte dei governi o dei legislatori tende a seguire, ha affermato Frank Buytendijk, analista di Gartner.

"Quando c'è una nuova tecnologia sul mercato, impariamo a usarla in modo responsabile commettendo errori", ha affermato. "Ecco dove siamo ora con l'IA".

Successivamente, Buytendijk inizia ad emergere tale regolamentazione, permettendoci di conoscere l'uso responsabile attraverso l'interpretazione della legge e della giurisprudenza, seguita dalla fase finale in cui iniziamo a vedere tecnologie che incorporano l'uso responsabile.

"Apprendiamo l'uso responsabile attraverso queste best practice incorporate, quindi è un processo", ha affermato Buytendijk.

Copyright © 2023 IDG Communications, Inc.