Il capitolo analizza il Regolamento europeo sull’intelligenza artificiale (AI Act) quale tentativo di coniugare promozione dell’innovazione tecnologica e tutela effettiva dei diritti fondamentali. Muovendo dalla nozione di intelligenza artificiale antropocentrica e affidabile, l’indagine ricostruisce l’impianto assiologico della disciplina europea, evidenziando come la centralità della persona costituisca il criterio ordinatore dell’intero sistema regolatorio. Particolare attenzione è dedicata alla tensione tra esigenze di sicurezza pubblica e garanzie individuali, con specifico riguardo all’uso dei sistemi di IA in ambiti sensibili e al rischio di compressione di diritti fondamentali. L’analisi si concentra poi sulla disciplina dei sistemi ad alto rischio, mettendo in luce le nuove forme di protezione del consumatore e il rafforzamento degli obblighi di trasparenza, tracciabilità e controllo ex ante. In tale prospettiva, la valutazione d’impatto sui diritti fondamentali (Fundamental Rights Impact Assessment – FRIA) è esaminata come strumento di tutela preventiva e di responsabilizzazione degli operatori, capace di incidere non solo sul piano tecnico-organizzativo, ma anche su quello culturale e giuridico. Le osservazioni conclusive evidenziano come l’AI Act rappresenti un modello regolatorio innovativo, fondato su un approccio risk-based e su una concezione integrata di sicurezza, responsabilità e protezione dei diritti, pur non mancando profili problematici legati all’effettività dei controlli e alla concreta applicazione delle garanzie previste.

Ippoliti, C. (2025). Il regolamento europeo sull’intelligenza artificiale tra innovazione e tutela dei diritti fondamentali. Pisa : Pacini.

Il regolamento europeo sull’intelligenza artificiale tra innovazione e tutela dei diritti fondamentali

Carlotta Ippoliti
2025

Abstract

Il capitolo analizza il Regolamento europeo sull’intelligenza artificiale (AI Act) quale tentativo di coniugare promozione dell’innovazione tecnologica e tutela effettiva dei diritti fondamentali. Muovendo dalla nozione di intelligenza artificiale antropocentrica e affidabile, l’indagine ricostruisce l’impianto assiologico della disciplina europea, evidenziando come la centralità della persona costituisca il criterio ordinatore dell’intero sistema regolatorio. Particolare attenzione è dedicata alla tensione tra esigenze di sicurezza pubblica e garanzie individuali, con specifico riguardo all’uso dei sistemi di IA in ambiti sensibili e al rischio di compressione di diritti fondamentali. L’analisi si concentra poi sulla disciplina dei sistemi ad alto rischio, mettendo in luce le nuove forme di protezione del consumatore e il rafforzamento degli obblighi di trasparenza, tracciabilità e controllo ex ante. In tale prospettiva, la valutazione d’impatto sui diritti fondamentali (Fundamental Rights Impact Assessment – FRIA) è esaminata come strumento di tutela preventiva e di responsabilizzazione degli operatori, capace di incidere non solo sul piano tecnico-organizzativo, ma anche su quello culturale e giuridico. Le osservazioni conclusive evidenziano come l’AI Act rappresenti un modello regolatorio innovativo, fondato su un approccio risk-based e su una concezione integrata di sicurezza, responsabilità e protezione dei diritti, pur non mancando profili problematici legati all’effettività dei controlli e alla concreta applicazione delle garanzie previste.
2025
La volontà macchinica. Realità e soggettività
68
87
Ippoliti, C. (2025). Il regolamento europeo sull’intelligenza artificiale tra innovazione e tutela dei diritti fondamentali. Pisa : Pacini.
Ippoliti, Carlotta
File in questo prodotto:
Eventuali allegati, non sono esposti

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11585/1050768
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact