Il Garante blocca ChatGPT per raccolta illecita di dati personali e assenza di sistemi per la verifica dell’età dei minori: ne parla l’Avvocato Massimiliano Masnada, Partner di Hogan Lovells
Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.
ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.
Cosa può fare ChatGPT?
Acronimo di Chat Generative Pre-trained Transformer, ovvero “trasformatore pre-istruito generatore di conversazioni” è un modello di chatbot basato su intelligenza artificiale e apprendimento automatico specializzato nella conversazione con un utente umano ed è in grado di creare dei testi partendo da contenuti presenti sul web, ma non solo. Attraverso la seconda generazione di reti neurali ovvero una architettura permette un numero “illimitato” di generazioni dei dati, riesce a compiere una serie di attività incredibilmente utili per l’essere umano, ovvero per un comunicatore. Parliamo delle interpretazioni di linguaggi particolari, come ad esempio un determinato autore, con il quale poter scrivere saggi, articoli, fare riassunti, effettuare traduzioni simultanee, ma analisi del testo come ad esempio l’analisi del sentiment per intercettare se sia positivo, negativo o neutro, classificare il testo e quindi in quale modo leggere tra le righe. In alcune versioni si possono realizzare anche grafiche o ritratti, partendo da contenuti forniti dall’utente o effettuare sintesi vocali, in più lingue. Le applicazioni potenziali sono quasi infinite, purché seguite dall’essere umano che può realmente interpretare e utilizzare il lavoro della macchina, spesso criticato e per questo migliorato molto dalle sue prime versioni.
Il provvedimento del Garante
Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.
Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.
OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
Il parere dell’esperto
In questa dinamica affascinante e controversa, è intervenuto l’Avvocato Massimiliano Masnada, Partner di Hogan Lovells e grande esperto privacy.
«L’intervento del Garante anzitutto sembra contestare a ChatGPT la mancanza di trasparenza, intesa come mancanza di informativa agli utenti rispetto alle finalità e modalità del trattamento dei dati personali eventualmente comunicati. Il provvedimento, inoltre, richiama la necessità che sia individuata una base giuridica rispetto alla legittimità del trattamento da parte di OpenAI dei dati personali eventualmente raccolti dagli utenti. Infine, il Garante lamenta una mancanza di trasparenza sui filtri e altri meccanismi adottati da ChatGPT per impedire ai minori di 13 anni di utilizzare il servizio. Quest’ultimo punto, peraltro, accomuna l’intervento del Garante nei confronti di ChatGPT a quello che, a suo tempo, fece nei confronti di TikTok».
Si tratta dunque di una problematica occorsa già in altre circostanze note che non ha alla fine bloccato definitivamente il servizio, semmai provocato una necessaria modifica ai termini di servizio, come conferma l’Avvocato Masnada nel suo intervento sulla decisione del Garante della Privacy di bloccare ChatGPT.
«Il provvedimento, che – va ricordato – ha natura temporanea di blocco del trattamento ma non implica necessariamente un divieto definitivo all’uso del servizio, pone numerose riflessioni, al di là delle misure specifiche che saranno intraprese da OpenAI per superare il blocco del Garante, sul futuro dei meccanismi di AI e su quanto è necessario fare per creare una cultura di legalità rispetto al loro utilizzo. Non bastano, ad opinione di chi scrive, i pur necessari meccanismi di privacy by design e privacy by default ovvero i controlli e i rimedi per tutelare la privacy degli interessati, specie se minori. Occorre creare una nuova cultura tecnologica che si fondi sull’etica e sul rispetto dei diritti fondamentali. Non è questo il luogo, né sarei in grado di dare indicazioni e, tanto meno, soluzioni, certo che un certo tipo di “pessimismo di maniera” connesso all’evoluzione degli strumenti tecnologici alimenta solo la paura e la preoccupazione senza essere utile in alcun modo a sviluppare una cultura della legalità. Occorre, a mio parere, abbracciare il progresso pur mantenendo lo spirito critico necessario per evitare usi distorti e dannosi. In tal senso, credo sia importante diffondere informazioni in modo quanto più neutro possibile, raccogliere preoccupazioni e opinioni, porre i problemi per cercare le soluzioni. Tutto ciò non può prescindere da un dati incontrovertibile. I dati, a prescindere che siano personali o meno, sono il carburante necessario per lo sviluppo di meccanismi di AI come ChatGPZ. L’accesso ai dati consente di avere algoritmi più precisi ed idonei all’utilizzo per migliorare la vita delle persone. Il loro deve avvenire in modo sicuro ed etico. Per fare ciò non bastano i divieti. Un primo passo, in tale senso, sarà la corretta implementazione delle regole sul riuso dei dati che sono alla base del Data Governace Act, di prossima entrata in vigore, e del successivo Data Act. La giostra è appena partita».