ChatGPT, sempre più Paesi si interrogano sulla sicurezza dei dati
Il bando pronunciato dal garante della privacy italiano contro l'intelligenza artificiale gestita da OpenAI sta scoperchiando un vaso di Pandora in diversi altri Stati. La Svizzera però prende tempo.
In Italia, il garante della privacy ha annunciato venerdì, il 31 marzo, l’avvio di un’istruttoria dei confronti della società americana OpenAI, ossia quella che gestisce l’intelligenza artificiale (AI) sulla bocca di tutti: ChatGPT.
La decisione dell’autorità italiana per la protezione dei dati personali ha colto di sorpresa molti – sia nel mondo mediatico, sia le istituzioni di altri Paesi – che si sono quindi domandati se non valesse la pena porsi gli stessi quesiti di sicurezza dei dati che si stanno ponendo a Roma.
ChatGPT è un chatbot, ossia un software che simula ed elabora gli scambi umani permettendo così agli utenti di interagire con i dispositivi digitali attraverso vere e proprie conversazioni. Più informazioni/conversazioni raccoglie, più il sistema si perfeziona e più può fornire risposte realistiche.
In particolare, il garante della privacy ha imposto un limite al trattamento dei dati raccolti da OpenAI sugli utenti italiani perché ha ritenuto che sussista il sospetto che tale raccolta dati sia illecita e che manchino un’informativa agli utenti, così come una base legale che giustifichi la conservazione delle informazioni personali delle persone.
Altri sviluppi
L’Italia blocca chatGPT
L’Italia lamenta inoltre anche l’assenza di un filtro per verificare l’età degli utenti, esponendo così i minori a “risposte del tutto inadeguate al loro livello di sviluppo”. Il secondo problema sono le risposte false: OpenAI avverte i suoi utenti che ChatGPT è in fase di sviluppo e che non è totalmente affidabile, ma questo avvertimento viene considerato un po’ troppo leggero in vista dell’uso massiccio di questo robot.
L’autorità in questione ha infine detto che OpenAI dovrà comunicare entro 20 giorni “le misure intraprese in attuazione di quanto richiesto, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo”.
La risposta della società
Il giorno seguente, l’organizzazione statunitense che possiede ChatGPT ha sospeso il suo servizio in Italia, rendendo irraggiungibile il sito che ospita il chatbot. OpenAI ha anche fatto sapere che rimborserà gli utenti che hanno sottoscritto un abbonamento a ChatGPT durante il mese di marzo e che non rinnoverà automaticamente nemmeno le sottoscrizioni antecedenti finché il servizio resterà sospeso in Italia.
Sam Altman, uno dei fondatori di OpenAI e suo attuale amministratore delegato, ha commentato l’accaduto con un tweet in cui ha detto di non ritenere che ChatGPT vìoli le norme sulla privacy. “L’Italia è uno dei miei Paesi preferiti e non vedo l’ora di visitarla di nuovo!”, ha poi aggiunto.
OpenAI è anche al centro di un reclamo presentato negli Stati Uniti alla Federal Trade Commission (FTC) dal Centro per l’intelligenza artificiale e la digital policy (CAIDP). Il reclamo chiede di indagare su OpenAI e sospendere il rilascio di modelli linguistici come ChatGPT, accusando l’azienda di violare la Sezione 5 della legge FTC e le linee guida per i prodotti AI. Il CAIDP definisce GPT-4 “ingannevole e un rischio per la privacy e la sicurezza pubblica”, e richiede che l’azienda permetta una valutazione indipendente dei prodotti GPT prima del loro rilascio futuro.
Un’indagine su OpenAI è poi stata avviata in Canada a seguito di una denuncia riguardante la raccolta, l’utilizzo e la comunicazione di dati personali senza consenso. Nel frattempo Francia, Germania e Irlanda, tramite le rispettive autorità di protezione dei dati stanno valutando l’opportunità di vietare la piattaforma AI per tutelare la privacy individuale interfacciandosi con il Garante Italiano.
Giovedì 6 aprile, inoltre, l’autorità italiana della protezione dei dati ha comunicato che, in seguito a scambi avuti con la società, “OpenAI si è impegnata a rafforzare la trasparenza nell’utilizzo dei dati personali (…) e nella protezione dei minori”.
Sollecitate anche le autorità elvetiche
In Svizzera, intanto, l’ufficio dell’Incaricato federale della protezione dei dati e della trasparenza (IFPDT), fortemente sollecitato dopo il primo divieto di ChatGPT applicato in Italia, si limita a consigliare agli utenti di fare un uso consapevole delle applicazioni basate sull’intelligenza artificiale e a ricordare alle aziende i loro obblighi.
“L’IFPDT riconosce le opportunità che l’uso di applicazioni basate sull’IA come ChatGPT rappresenta per la società e l’economia. Tuttavia, il trattamento dei dati personali attraverso queste nuove tecnologie comporta anche rischi per la sfera privata e l’autodeterminazione informativa”, si legge in una presa di posizione pubblicata dall’incaricato federale Adrian Lobsiger.
Berna per ora non si pronuncia
L’IFPDT ammette che le domande che emergono sulla conformità alla protezione dei dati del chatbot ChatGPT sono molte. Tuttavia, l’incaricato federale non ha ancora esaminato la piattaforma nell’ambito di un accertamento dei fatti: per ora, non si pronuncia quindi sulla conformità alla protezione dei dati di questa applicazione.
Pur non esprimendosi ancora sulla sicurezza dei dati forniti a ChatGPT, l’IFPDT consiglia comunque agli utenti di verificare, prima di inserire testi o caricare immagini, a quale scopo verranno elaborati. Le aziende che intendono utilizzare applicazioni basate sull’intelligenza artificiale devono inoltre garantire il rispetto dei requisiti legali sulla protezione dei dati. Ciò significa, tra l’altro, che gli utenti devono essere informati in modo trasparente e comprensibile su quali dati vengono elaborati, per quale scopo e in che modo.
Anche Berna, come altri Paesi è tuttavia in contatto con l’autorità italiana allo scopo di ottenere ulteriori informazioni. Inoltre, l’IFPDT sta “monitorando attentamente l’utilizzo delle applicazioni basate sull’intelligenza artificiale da parte dei gestori in Svizzera”, conclude la nota dell’ufficio federale.
In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Se volete segnalare errori fattuali, inviateci un’e-mail all’indirizzo tvsvizzera@swissinfo.ch.