Il caso ChatGPT


COS’E’ ChatGPT

In CRP Software stiamo seguendo con interesse il caso ChatGPT.

ChatGPT è il più noto software di intelligenza artificiale avanzata, creato dalla società statunitense OpenAI, in grado di simulare conversazioni umane, capace di “pensare” e rispondere esattamente come una persona.

Sebbene sia uno strumento estremamente complesso, si presenta come una normale chat, con una interfaccia minimale che rende l’utilizzo molto semplice, anche per chi non ha particolari competenze informatiche.
Funziona come una vera e propria chat: l’utente pone domande e il chatbot risponde, via via in modo sempre più esaustivo.
Utilizzare ChatGPT può essere un’interessante esperienza: conversare con questa intelligenza artificiale può migliorare la propria conoscenza su svariati argomenti o addirittura può aiutare a lavorare più velocemente (x es: creare contenuti come articoli, post, descrizioni di prodotti, recensioni, fare riassunti, etc).


LE CRITICITA’

Il Garante della Privacy Italiano ha però rilevato il mancato rispetto del regolamento europeo sulla Privacy e sul trattamento e protezione dei dati (GDPR), a causa della mancanza di un’informativa sulla raccolta dei dati personali e l’assenza di una base giuridica per raccoglierli e conservarli.
In sostanza OpenAI potrebbe utilizzare a suo piacimento i dati degli utenti, soprattutto per “addestrare e allenare” ulteriormente il ChatBot, rendendolo più “intelligente” e rapido nel dare risposte e le richieste fatte all’algoritmo potrebbero poi rimanere salvate sui server di OpenAI.
Senza contare che, al momento, il software non effettua controlli sull’età degli utenti (l’accesso avviene tramite autenticazione Microsoft o Google): permettendo quindi anche ai minori di 13 anni di accedere.
Inoltre le informazioni fornite da ChatGPT a volte sono errate: utilizzando fonti non verificate, può dare risposte sbagliate su persone, luoghi, aziende, eventi storici…


QUALCHE ESEMPIO

Qualche esempio concreto per comprendere meglio i pericoli legati alla Privacy:
– I dipendenti di OpenAI possono leggere ciò che si immette in ChatGPT (“Your conversations may be reviewed by our A.I. trainers to improve our systems”). Ecco che SAMSUNG ha subìto una fuga di dati su progetti industriali, perché alcuni suoi lavoratori hanno inserito codici di sicurezza di software aziendali per farli controllare dal ChatBot alla ricerca di eventuali errori. E’ stato anche caricato il video di una riunione, chiedendone all’Intelligenza Artificiale un riassunto scritto.
Questi dati di Samsung, che dovrebbero essere riservati, potrebbero invece rimanere registrati sui server di ChatGPT.

– Possiamo anche immaginare un medico che, per far analizzare un referto o riassumerlo, lo carichi in ChatGPT con nome e cognome del paziente.

– O ancora, pensiamo a un minore che, spinto dalla curiosità, si rivolga a questa chat per avere informazioni su argomenti delicati o pericolosi o fornire dati personali, pensando sia uno spazio privato, ricevendo risposte distorte o inidonee al suo grado di sviluppo e di auto-consapevolezza.


IL BLOCCO E LE CONDIZIONI PER IL RITORNO

Tutto ciò ha indotto OpenAI a disabilitare l’accesso per gli utenti italiani, finché non avrà regolarizzato la propria posizione legale.
Si tratta quindi di una autosospensione del servizio e non di un blocco imposto dal Garante, come spesso si legge.
Sembra inoltre che anche Canada, Germania, Francia e Irlanda stiano avviando istruttorie in tal senso.

Il 4 Aprile 2023 è iniziato il confronto tra OpenAI e il Garante della Privacy Italiano.
L’azienda americana ha confermato la sua volontà di collaborare con l’Autorità ed ha fatto pervenire alcune proposte per rendere il trattamento dei dati degli utenti conforme alla normativa Privacy.
OpenAI avrà fino al 30 Aprile per adempiere alle prescrizioni dettate dal Garante (dovrà essere pubblicata un’informativa privacy chiara, facile da leggere e consultabile prima di procedere alla registrazione) oppure il servizio rimarrà sospeso e potrebbero arrivare multe.
E’ stato sottolineato come non vi sia intenzione di frenare lo sviluppo dell’AI e dell’innovazione tecnologica, ma i dati personali dei cittadini vanno tutelati. Un’operazione di trasparenza sembra davvero indispensabile.

Siamo curiosi di scoprire come finirà la vicenda, rimaniamo sintonizzati!