Il saggio affronta le criticità legate all'utilizzo e allo sviluppo su vasta scala di Large Language Model generativi addestrati anche su dati personali. L'articolo mette in risalto le sfide giuridiche legate alla natura dei dati personali utilizzati per l'addestramento di questi e ai possibili errori probabilistici dei modelli che interferiscono con l'identità personale degli individui rappresentati nei loro output. Alla discussione di alcune premesse tecniche, segue l'individuazione delle criticità giuridiche che da esse scaturiscono, con particolare riferimento al bilanciamento tra tutela dei dati personali, libertà d'espressione e libertà di iniziativa economica. A queste considerazioni, l'articolo affianca la trattazione del Provvedimento d'urgenza adottato dall'Autorità Garante per la Protezione dei Dati Personali il 30 marzo 2023 nei confronti di OpenAI, a cui è conseguita la limitazione del trattamento dei dati personali da parte del fornitore di ChatGPT. Infine, l'articolo esamina la Proposta regolamentare europea per un Artificial Intelligence Act, che mira a minimizzare i rischi derivanti dall'uso dei sistemi di IA, inclusa quella generativa. Le definizioni riguardanti i "Foundation Model" e i "General Purpose AI System" introdotte dal Parlamento Europeo individuano un regime specifico per questi Large Language Model e le applicazioni basate su esse. L'articolo discute questa Proposta parlamentare, soprattutto con riguardo all'introduzione di principi etici nel design dei modelli di base, di un meccanismo di autovalutazione per garantire la tutela di diritti e libertà fondamentali quando i Large Language Model rischiano di comprometterli, e la definizione di nuovi ruoli e obblighi per i fornitori di modelli di base.

ChatGPT, dati e identità personale: rischi, bilanciamenti, regolazione

Salvatore Sapienza
Primo
2023

Abstract

Il saggio affronta le criticità legate all'utilizzo e allo sviluppo su vasta scala di Large Language Model generativi addestrati anche su dati personali. L'articolo mette in risalto le sfide giuridiche legate alla natura dei dati personali utilizzati per l'addestramento di questi e ai possibili errori probabilistici dei modelli che interferiscono con l'identità personale degli individui rappresentati nei loro output. Alla discussione di alcune premesse tecniche, segue l'individuazione delle criticità giuridiche che da esse scaturiscono, con particolare riferimento al bilanciamento tra tutela dei dati personali, libertà d'espressione e libertà di iniziativa economica. A queste considerazioni, l'articolo affianca la trattazione del Provvedimento d'urgenza adottato dall'Autorità Garante per la Protezione dei Dati Personali il 30 marzo 2023 nei confronti di OpenAI, a cui è conseguita la limitazione del trattamento dei dati personali da parte del fornitore di ChatGPT. Infine, l'articolo esamina la Proposta regolamentare europea per un Artificial Intelligence Act, che mira a minimizzare i rischi derivanti dall'uso dei sistemi di IA, inclusa quella generativa. Le definizioni riguardanti i "Foundation Model" e i "General Purpose AI System" introdotte dal Parlamento Europeo individuano un regime specifico per questi Large Language Model e le applicazioni basate su esse. L'articolo discute questa Proposta parlamentare, soprattutto con riguardo all'introduzione di principi etici nel design dei modelli di base, di un meccanismo di autovalutazione per garantire la tutela di diritti e libertà fondamentali quando i Large Language Model rischiano di comprometterli, e la definizione di nuovi ruoli e obblighi per i fornitori di modelli di base.
2023
Salvatore Sapienza
File in questo prodotto:
File Dimensione Formato  
ChatGPT, dati e identità personale_ rischi, bilanciamenti, regolazione.pdf

accesso aperto

Descrizione: Saggio
Tipo: Versione (PDF) editoriale
Licenza: Licenza per accesso libero gratuito
Dimensione 971.31 kB
Formato Adobe PDF
971.31 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11585/943713
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact