Era nell’aria e molti esperti si aspettavano che prima o poi sarebbe successo. Ciò che ha fatto scoccare la scintilla è stata la perdita di dati (Data Breach) che l’IA ha subito il 20 marzo scorso.
Nel provvedimento si indica anche la mancanza di una informativa che comunichi agli utenti come vengono raccolti i dati dall’azienda OpenAI. Inoltre, si punta il dito sulla mancanza di una base giuridica che dia la giustificazione alla massiccia raccolta di dati personali.
Le parole del Garante:
“Come testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto”.
Sappiamo come siano stati fatti di recente enormi investimenti da parte di colossi dell’informatica come Microsoft, Baidu e Google, che per adesso puntano ad “addestrare” gli algoritmi alla base del funzionamento di questi software.
Poche settimane fa, Google ha presentato la propria intelligenza artificiale conversazionale chiamata Bard, e altri algoritmi simili seguiranno sicuramente. Le aziende tecnologiche che lavorano sull’intelligenza artificiale sembrano davvero essere entrate in una corsa agli armamenti.
I problemi rivelati dal Garante
La disposizione ha effetto immediato, e sarà in atto finché ChatGPT non attuerà provvedimenti per tutelare la privacy degli utenti. Inoltre, anche se OpenAI dichiara che il suo software è rivolto ai maggiori di 13 anni, L’Autorità ha segnalato che manca un filtro per la verifica dell’età.
Questo ultimo aspetto espone i minori alla possibilità di ricevere delle risposte non adatte al loro grado di sviluppo.
Adesso la società creatrice di ChatGPT ha 20 giorni di tempo per rispondere e attuare le misure richieste. Il rischio per OpenAi è di ricevere una multa fino a € 20 milioni o al 4% del suo fatturato annuo.
ChatGPT è davvero pericolosa?
ChatGPT ha preso d’assalto il mondo e a pochi mesi dal suo rilascio ha raggiunto centinaia di milioni di utenti attivi, rendendola l’applicazione a più rapida crescita mai lanciata. Gli utenti sono attratti dalle funzionalità avanzate dello strumento e alcuni (forse ancora pochi) sono davvero preoccupati che possa causare la perdita di posti di lavoro in vari settori.
Alcune grosse aziende, come JPMorgan, Verizon e Amazon, hanno vietato ai propri dipendenti l’uso di ChatGPT. Il rischio è quello di vedere informazioni sensibili venire distribuite al pubblico.
ChatGPT è supportato da un ampio modello linguistico che richiede enormi quantità di dati per funzionare e migliorare continuamente. Maggiore è il numero di dati su cui viene addestrato il modello, migliore sarà il rilevamento di modelli, l’anticipazione di ciò che verrà dopo e la generazione di testo che somigli al linguaggio umano.
OpenAI, la società dietro ChatGPT, ha fornito allo strumento circa 300 miliardi di parole sistematicamente scelte su internet: libri, articoli, siti web e post, comprese informazioni personali ottenute senza consenso.
Infatti, se hai scritto un post sul tuo blog, una recensione di un prodotto o hai commentato un articolo online, c’è una buona probabilità che queste informazioni siano state utilizzate da ChatGPT.
OpenAI non ha chiesto il permesso
A nessuno di noi è stato chiesto se OpenAI potesse utilizzare i nostri dati. Questa è una chiara violazione della privacy, soprattutto quando i dati sono sensibili e possono essere utilizzati per identificare noi, i nostri familiari o la nostra posizione.
Anche quando i dati sono pubblicamente disponibili, il loro utilizzo può violare quella che chiamiamo integrità contestuale. Questo è un principio fondamentale nelle discussioni legali sulla privacy. Richiede che le informazioni degli individui non vengano rivelate al di fuori del contesto in cui sono state originariamente prodotte.
Di conseguenza, ChatGPT non è nemmeno conforme al Regolamento Generale Europeo sulla Protezione dei Dati (GDPR)
Questo “diritto all’oblio” è particolarmente importante nei casi in cui le informazioni sono imprecise o fuorvianti, cosa che sembra essere un evento normale con ChatGPT.
I chatbot basati sull’intelligenza artificiale sono indubbiamente una tecnologia straordinaria, ma sono anche un disastro per la privacy pronto a esplodere in qualsiasi momento.
Domande e Risposte (0)