Il saggio affronta le criticità legate all'utilizzo e allo sviluppo su vasta scala di Large Language Model generativi addestrati anche su dati personali. L'articolo mette in risalto le sfide giuridiche legate alla natura dei dati personali utilizzati per l'addestramento di questi e ai possibili errori probabilistici dei modelli che interferiscono con l'identità personale degli individui rappresentati nei loro output. Alla discussione di alcune premesse tecniche, segue l'individuazione delle criticità giuridiche che da esse scaturiscono, con particolare riferimento al bilanciamento tra tutela dei dati personali, libertà d'espressione e libertà di iniziativa economica. A queste considerazioni, l'articolo affianca la trattazione del Provvedimento d'urgenza adottato dall'Autorità Garante per la Protezione dei Dati Personali il 30 marzo 2023 nei confronti di OpenAI, a cui è conseguita la limitazione del trattamento dei dati personali da parte del fornitore di ChatGPT. Infine, l'articolo esamina la Proposta regolamentare europea per un Artificial Intelligence Act, che mira a minimizzare i rischi derivanti dall'uso dei sistemi di IA, inclusa quella generativa. Le definizioni riguardanti i "Foundation Model" e i "General Purpose AI System" introdotte dal Parlamento Europeo individuano un regime specifico per questi Large Language Model e le applicazioni basate su esse. L'articolo discute questa Proposta parlamentare, soprattutto con riguardo all'introduzione di principi etici nel design dei modelli di base, di un meccanismo di autovalutazione per garantire la tutela di diritti e libertà fondamentali quando i Large Language Model rischiano di comprometterli, e la definizione di nuovi ruoli e obblighi per i fornitori di modelli di base.
Salvatore Sapienza (2023). ChatGPT, dati e identità personale: rischi, bilanciamenti, regolazione. OSSERVATORIO COSTITUZIONALE, 5, 47-71.
ChatGPT, dati e identità personale: rischi, bilanciamenti, regolazione
Salvatore SapienzaPrimo
2023
Abstract
Il saggio affronta le criticità legate all'utilizzo e allo sviluppo su vasta scala di Large Language Model generativi addestrati anche su dati personali. L'articolo mette in risalto le sfide giuridiche legate alla natura dei dati personali utilizzati per l'addestramento di questi e ai possibili errori probabilistici dei modelli che interferiscono con l'identità personale degli individui rappresentati nei loro output. Alla discussione di alcune premesse tecniche, segue l'individuazione delle criticità giuridiche che da esse scaturiscono, con particolare riferimento al bilanciamento tra tutela dei dati personali, libertà d'espressione e libertà di iniziativa economica. A queste considerazioni, l'articolo affianca la trattazione del Provvedimento d'urgenza adottato dall'Autorità Garante per la Protezione dei Dati Personali il 30 marzo 2023 nei confronti di OpenAI, a cui è conseguita la limitazione del trattamento dei dati personali da parte del fornitore di ChatGPT. Infine, l'articolo esamina la Proposta regolamentare europea per un Artificial Intelligence Act, che mira a minimizzare i rischi derivanti dall'uso dei sistemi di IA, inclusa quella generativa. Le definizioni riguardanti i "Foundation Model" e i "General Purpose AI System" introdotte dal Parlamento Europeo individuano un regime specifico per questi Large Language Model e le applicazioni basate su esse. L'articolo discute questa Proposta parlamentare, soprattutto con riguardo all'introduzione di principi etici nel design dei modelli di base, di un meccanismo di autovalutazione per garantire la tutela di diritti e libertà fondamentali quando i Large Language Model rischiano di comprometterli, e la definizione di nuovi ruoli e obblighi per i fornitori di modelli di base.File | Dimensione | Formato | |
---|---|---|---|
ChatGPT, dati e identità personale_ rischi, bilanciamenti, regolazione.pdf
accesso aperto
Descrizione: Saggio
Tipo:
Versione (PDF) editoriale
Licenza:
Licenza per accesso libero gratuito
Dimensione
971.31 kB
Formato
Adobe PDF
|
971.31 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.