Il capitolo analizza il Regolamento europeo sull’intelligenza artificiale (AI Act) quale tentativo di coniugare promozione dell’innovazione tecnologica e tutela effettiva dei diritti fondamentali. Muovendo dalla nozione di intelligenza artificiale antropocentrica e affidabile, l’indagine ricostruisce l’impianto assiologico della disciplina europea, evidenziando come la centralità della persona costituisca il criterio ordinatore dell’intero sistema regolatorio. Particolare attenzione è dedicata alla tensione tra esigenze di sicurezza pubblica e garanzie individuali, con specifico riguardo all’uso dei sistemi di IA in ambiti sensibili e al rischio di compressione di diritti fondamentali. L’analisi si concentra poi sulla disciplina dei sistemi ad alto rischio, mettendo in luce le nuove forme di protezione del consumatore e il rafforzamento degli obblighi di trasparenza, tracciabilità e controllo ex ante. In tale prospettiva, la valutazione d’impatto sui diritti fondamentali (Fundamental Rights Impact Assessment – FRIA) è esaminata come strumento di tutela preventiva e di responsabilizzazione degli operatori, capace di incidere non solo sul piano tecnico-organizzativo, ma anche su quello culturale e giuridico. Le osservazioni conclusive evidenziano come l’AI Act rappresenti un modello regolatorio innovativo, fondato su un approccio risk-based e su una concezione integrata di sicurezza, responsabilità e protezione dei diritti, pur non mancando profili problematici legati all’effettività dei controlli e alla concreta applicazione delle garanzie previste.
Ippoliti, C. (2025). Il regolamento europeo sull’intelligenza artificiale tra innovazione e tutela dei diritti fondamentali. Pisa : Pacini.
Il regolamento europeo sull’intelligenza artificiale tra innovazione e tutela dei diritti fondamentali
Carlotta Ippoliti
2025
Abstract
Il capitolo analizza il Regolamento europeo sull’intelligenza artificiale (AI Act) quale tentativo di coniugare promozione dell’innovazione tecnologica e tutela effettiva dei diritti fondamentali. Muovendo dalla nozione di intelligenza artificiale antropocentrica e affidabile, l’indagine ricostruisce l’impianto assiologico della disciplina europea, evidenziando come la centralità della persona costituisca il criterio ordinatore dell’intero sistema regolatorio. Particolare attenzione è dedicata alla tensione tra esigenze di sicurezza pubblica e garanzie individuali, con specifico riguardo all’uso dei sistemi di IA in ambiti sensibili e al rischio di compressione di diritti fondamentali. L’analisi si concentra poi sulla disciplina dei sistemi ad alto rischio, mettendo in luce le nuove forme di protezione del consumatore e il rafforzamento degli obblighi di trasparenza, tracciabilità e controllo ex ante. In tale prospettiva, la valutazione d’impatto sui diritti fondamentali (Fundamental Rights Impact Assessment – FRIA) è esaminata come strumento di tutela preventiva e di responsabilizzazione degli operatori, capace di incidere non solo sul piano tecnico-organizzativo, ma anche su quello culturale e giuridico. Le osservazioni conclusive evidenziano come l’AI Act rappresenti un modello regolatorio innovativo, fondato su un approccio risk-based e su una concezione integrata di sicurezza, responsabilità e protezione dei diritti, pur non mancando profili problematici legati all’effettività dei controlli e alla concreta applicazione delle garanzie previste.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


