ChatGPT bloccato in Italia per protezione dei dati



ChatGPT è in uso dallo scorso autunno e ha subito attirato molta attenzione. Foto: Reuters

La decisione comporterà una “limitazione temporanea del trattamento dei dati degli utenti italiani a IA aperta“, hanno annunciato dall’agenzia italiana. Come hanno spiegato, il 20 marzo alle applicazione ChatGPT si è verificata una violazione dei dati che ha coinvolto le conversazioni degli utenti e le informazioni di pagamento. Ritengono che nessuna base giuridica giustifichi la massiccia raccolta e archiviazione di dati personali con l’obiettivo di “addestrare” gli algoritmi su cui si basa l’operazione. piattaforme.

Perché dentro applicazione allo stesso tempo, non è stato possibile verificare l’età degli utenti, che, secondo l’agenzia, espone i minori a “risposte del tutto inadeguate in relazione al loro livello di sviluppo e coscienza”.

start-up americana IA aperta ora ha 20 giorni per spiegare come affronterà le preoccupazioni del cane da guardia. In caso contrario, l’azienda rischia una multa di 20 milioni di euro o fino al 4% del suo fatturato annuo.

L’intelligenza artificiale supererà gli umani? ChatGPT tra opportunità e minaccia.

ChatGPT può rispondere chiaramente a domande difficili e scrivere codice per computer, sonetti o saggi. Tuttavia, lo è applicazione è stato anche oggetto di molte critiche, poiché gli insegnanti temono che gli studenti lo useranno per imbrogliare e i responsabili politici si preoccupano della diffusione della disinformazione.

L’agenzia di polizia europea Europol questa settimana ha messo in guardia contro l’abuso dei robot di testo, così com’è ChatGPT. Lunedì l’ufficio ha avvertito in un rapporto che la tecnologia potrebbe essere utilizzata per disinformazione, criminalità informatica, ingegneria sociale e altre frodi perché crea testi altamente realistici.

Diversi esperti di tecnologia, tra cui il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak, hanno chiesto una sospensione temporanea dello sviluppo di potenti sistemi di intelligenza artificiale. In una lettera aperta pubblicata mercoledì, suggeriscono almeno sei mesi di riflessione. Nel frattempo, dovrebbero essere definiti gli standard di sicurezza per lo sviluppo dell’intelligenza artificiale.

Agata Lucciano

"Propenso ad attacchi di apatia. Evangelista della birra. Incurabile maniaco del caffè. Esperto di Internet."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *