L’Italia blocca il ChatGPT di OpenAI, apre un’indagine sulle mancanze di privacy

Emesso il:

Venerdì l’autorità italiana per la protezione dei dati ha vietato temporaneamente il chatbot ChatGPT di OpenAI e ha avviato un’indagine su una sospetta violazione delle regole di raccolta dei dati dell’applicazione di intelligenza artificiale.

L’agenzia, nota anche come Garante, ha accusato Microsoft ChatGPT supportato dall’azienda di non aver verificato l’età dei suoi utenti che dovrebbero avere almeno 13 anni.

ChatGPT ha “l’assenza di qualsiasi base legale che giustifichi la massiccia raccolta e archiviazione di dati personali” per “addestrare” il chatbot, ha affermato Garante. OpenAI ha 20 giorni per rispondere con rimedi o potrebbe rischiare una multa fino al 4% del suo fatturato mondiale annuale.

OpenAI non ha risposto immediatamente a una richiesta di commento.

ChatGPT stava ancora rispondendo alle domande poste da Italiano utenti sulla piattaforma il venerdì sera.

La società è stata informata della decisione venerdì mattina e sarebbe stato materialmente impossibile staccare la spina all’accesso in Italia lo stesso giorno, ma si aspettano che lo facciano entro sabato, ha detto un portavoce dell’autorità.

“Se ignorano il divieto, l’autorità può imporre multe”, ha detto il portavoce.

L’Italia, che ha provvisoriamente limitato l’utilizzo dei dati personali degli utenti domestici da parte di ChatGPT, è diventata il primo paese occidentale ad agire contro un chatbot alimentato da intelligenza artificiale.

Il chatbot non è inoltre disponibile nella Cina continentale, a Hong Kong, in Iran e in Russia e in alcune parti dell’Africa dove i residenti non possono creare account OpenAI.

Dalla sua uscita lo scorso anno, ChatGPT ha scatenato una mania tecnologica, spingendo i rivali a lanciare prodotti e aziende simili per integrarlo o tecnologie simili nelle loro app e prodotti.

Il rapido sviluppo della tecnologia ha attirato l’attenzione dei legislatori di diversi paesi. Molti esperti affermano che sono necessarie nuove normative per governare l’IA a causa di il suo potenziale impatto sulla sicurezza nazionale, l’occupazione e l’istruzione.

La Commissione europea, che sta discutendo l’EU AI Act, potrebbe non essere incline a vietare l’IA, ha twittato il vicepresidente esecutivo della Commissione europea Margrethe Vestager.

“Indipendentemente dalla #tecnologia che utilizziamo, dobbiamo continuare a promuovere le nostre libertà e proteggere i nostri diritti. Ecco perché non regoliamo le tecnologie #AI, regoliamo gli usi dell’#AI”, ha affermato. “Non buttiamo via in pochi anni quello che ci sono voluti decenni per costruire”.

La CE non ha risposto a una richiesta di commento.

Mercoledì, Elon Musk e un gruppo di esperti di intelligenza artificiale e dirigenti del settore ha chiesto una pausa di sei mesi nello sviluppo di sistemi più potenti rispetto al nuovo GPT-4 di OpenAI, in una lettera aperta che cita potenziali rischi per la società.

OpenAI non ha fornito dettagli su come addestra il suo modello di intelligenza artificiale.

“La mancanza di trasparenza è il vero problema”, ha affermato Johanna Björklund, ricercatrice di intelligenza artificiale e professore associato presso l’Università di Umeå in Svezia. “Se fai ricerche sull’intelligenza artificiale, dovresti essere molto trasparente su come lo fai”,

Si stima che ChatGPT abbia raggiunto i 100 milioni di utenti attivi mensili a gennaio, appena due mesi dopo il lancio, rendendola l’applicazione consumer in più rapida crescita nella storia, secondo uno studio di UBS pubblicato il mese scorso.

(REUTERS)

Source link

Previous post Sei cose che abbiamo imparato dall’intervista a Elon Musk
Next post Serve tutelare i depositi bancari dei cittadini Ue: l’economista ed eurodeputata italiana Irene Tinagli