L’autorità francese per la protezione dei dati ha presentato un piano d’azione su AI, ChatGPT – EURACTIV.com

L’autorità francese per la protezione dei dati CNIL martedì (16 maggio) ha pubblicato un piano d’azione per affrontare i problemi di privacy legati all’intelligenza artificiale. In particolare, vengono prese in considerazione applicazioni generative come ChatGPT.

ChatGPT, il chatbot più famoso al mondo, ha aumentato la sua base di utenti fino a 100 milioni di utenti entro i primi due mesi dal suo rilascio. Con la crescita della sua popolarità, sono aumentate anche le preoccupazioni su come le informazioni personali sono state raccolte ed elaborate.

“Alla luce delle recenti notizie sull’intelligenza artificiale e in particolare sulla cosiddetta IA generativa come ChatGPT, CNIL ha pubblicato un piano d’azione per l’implementazione di un sistema di IA che rispetti la privacy individuale”, si legge nella nota.

Alla fine di marzo, l’autorità di regolamentazione italiana Garante ha incriminato il provider di ChatGPT OpenAI per violazioni della protezione dei dati pena. Il servizio è stato poi nuovamente autorizzato in Italia ad aprile dopo diverse azioni correttive.

Tuttavia, la decisione del Garante ha aperto la porta a un’azione incoerente in tutta l’UE. Il Consiglio europeo per la protezione dei dati, che rappresenta tutti i regolatori dei dati dell’UE, ha istituito una task force per garantire un’applicazione coerente.

Il ruolo della CNIL

A livello europeo, le autorità francesi sono già considerate tra le più influenti nell’UE, il che significa che il piano potrebbe modellare il modo in cui i regolatori europei gestiscono ChatGPT e tecnologie simili.

A livello nazionale, una fonte a conoscenza della questione ha detto a EURACTIV in condizione di anonimato che l’autorità francese per la protezione dei dati si sta posizionando per guidare l’applicazione delle leggi sull’IA a livello nazionale, una legge pionieristica dell’UE progettata per regolamentare la capacità dell’IA di infliggere danni.

Questa ambizione è sancita dal piano d’azione, in cui si afferma che “questi lavori consentiranno anche di preparare l’entrata in vigore di un progetto di regolamento europeo sull’IA”.

Approccio in quattro fasi

Il piano d’azione in quattro fasi è comprendere la tecnologia, gestirne lo sviluppo, creare un ecosistema di intelligenza artificiale e controllare i sistemi di intelligenza artificiale.

Il primo passaggio è dedicato ad affrontare le questioni relative alla privacy, come la trasparenza dei set di dati di formazione, la protezione dei dati pubblicamente disponibili dallo scraping, la protezione dai pregiudizi e i dati forniti dagli utenti.

Dato che questi aspetti sono una priorità nell’UE e in Francia, CNIL ha dedicato risorse interne per affrontare queste domande e ha file è stato pubblicato, in cui ha presentato le sue idee per rispondere alle domande sulla protezione dei dati.

Il secondo livello, AI Development Guidelines, cerca di guidare le aziende di intelligenza artificiale generativa verso uno sviluppo tecnico che rispetti i dati personali pubblicando documenti di orientamento e condividendo best practice e regole.

La terza fase, “ecosistema”, è a sua volta suddivisa in tre livelli e mira ad espandere la sandbox normativa esistente dell’autorità di regolamentazione per includere progetti innovativi basati sull’IA.

CNIL ha anche lanciato un concorso per aiutare le aziende a rispettare le normative europee sulla protezione dei dati. Inoltre, le autorità francesi hanno avviato un progetto per i fornitori di “videosorveglianza potenziata” nell’ambito dei test da parte del governo francese di questi strumenti ai sensi della legge che disciplina le Olimpiadi e le Paralimpiadi di Parigi 2024.

L’ultima area del piano d’azione CNIL tocca la sua competenza principale: test e controllo dei sistemi digitali. Le autorità di regolamentazione della protezione dei dati si concentreranno sulla conformità normativa per aumentare la videosorveglianza, utilizzare l’IA per combattere le frodi e indagare sui reclami sull’IA generativa.

Su quest’ultimo punto, i regolatori francesi fanno notare di aver ricevuto diversi reclami contro OpenAI, che saranno coordinati con la Task Force europea.

[Bearbeitet von Luca Bertuzzi/ Alice Taylor]

Fiore Greco

"Fanatico dei social media hipster. Introverso. Tossicodipendente del web. Risolutore di problemi incredibilmente umile. Appassionato di Twitter."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *