Il servizio OpenAI ChatGPT deve soddisfare le rigide linee guida dell’autorità italiana per la protezione dei dati, il Garante, prima che le restrizioni possano essere revocate. Il Garante ha incaricato OpenAI di interrompere l’elaborazione dei dati dei residenti italiani entro marzo 2023, citando una possibile violazione del Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea. L’ultimo comunicato stampa dell’agenzia descrive in dettaglio le azioni che OpenAI deve intraprendere per revocare l’ordine, tra cui una maggiore trasparenza e l’emissione di avvisi informativi che delineano le sue pratiche di elaborazione dei dati. Inoltre, dovrebbero essere implementate con urgenza misure restrittive dell’età per impedire l’accesso dei minorenni alla tecnologia e dovrebbero essere implementati metodi di verifica dell’età più rigorosi.
OpenAI deve identificare la base giuridica su cui si basa per l’elaborazione dei dati individuali per addestrare la sua IA e non può fare affidamento sull’esecuzione dei suoi contratti. Ciò significa che OpenAI deve scegliere tra ottenere il consenso dell’utente o fare affidamento su interessi legittimi. L’attuale politica sulla privacy di OpenAI aderisce a tre basi legali, ma sembra dare più peso alle prestazioni contrattuali quando si forniscono servizi come ChatGPT.
Inoltre, OpenAI deve consentire agli utenti e ai non utenti di esercitare i propri diritti in relazione ai propri dati personali, inclusa la richiesta di correzione degli errori di informazioni generati da ChatGPT o la cancellazione dei propri dati. Le autorità di regolamentazione hanno ordinato a OpenAI di consentire agli utenti di opporsi al trattamento dei propri dati al fine di addestrare i propri algoritmi. Inoltre, OpenAI dovrebbe condurre una campagna di sensibilizzazione in Italia per informare le persone che le loro informazioni vengono elaborate per addestrare la loro IA.
Il Garante ha concesso a OpenAI fino al 30 aprile per completare la maggior parte di questi compiti. A OpenAI è stato concesso più tempo per soddisfare la richiesta aggiuntiva di migrazione dalla sua attuale tecnologia per la sicurezza dei bambini basata sull’età a un sistema di verifica dell’età più solido. In particolare, OpenAI dovrebbe sviluppare un piano entro il 31 maggio che delinei l’implementazione di una tecnologia di verifica dell’età che controlli gli utenti di età inferiore ai 13 anni (e quelli di età compresa tra 13 e 18 anni che non hanno ricevuto il consenso dei genitori). La scadenza per l’attuazione di questo sistema più forte è stata fissata per il 30 settembre.
Il 31 marzo, OpenAI ha disattivato ChatGPT in Italia dopo che il Garante ha sollevato preoccupazioni su una potenziale violazione dei dati e sulla mancanza di verifica dell’età degli utenti. Con questa azione, OpenAI vuole soddisfare i requisiti del Garante e ripristinare ChatGPT in Italia. Le richieste delle autorità di regolamentazione riflettono il loro impegno a sostenere le normative GDPR e proteggere la privacy degli utenti, in particolare i minori. OpenAI e altre società tecnologiche devono garantire che i loro servizi di intelligenza artificiale siano conformi alle normative GDPR per evitare ordini o sanzioni simili in futuro.
Fonte immagine: Pixabay
“Fanatico dei social media hipster. Introverso. Tossicodipendente del web. Risolutore di problemi incredibilmente umile. Appassionato di Twitter.”