L’OSCE nel suo report The Impact of Big Data and Artificial Intelligence (AI) in the Insurance Sector ci informa che il mercato delle applicazioni basate su tecniche di in-telligenza artificiale (AI) è in crescente aumento e si stima possa produrre un prodotto interno lordo globale di oltre quindicimila miliardi di dollari entro il 2030 . L’European Banking Authority ha stimato che circa il 64% delle banche europee sta utilizzando strumenti di AI. Entrambi i report citati, provenienti da settori con elevato impatto sociale ed economico, ci forniscono significativi spunti di riflessione sul fon-damentale ruolo che i dati svolgono nella realizzazione delle applicazioni concrete dell’AI e di come principi di conoscibilità e comprensibilità debbano essere inclusi nel processo di produzione di tali artefatti per soddisfare diverse necessità: i) la traspa-renza del processo di decisione automatico al fine di verificarne l’esattezza e l’accuratezza e poterlo correggere (dimensione tecnologica, Adadi 2018) ; ii) la crea-zione di un sentimento di fiducia individuale e collettivo in queste emergenti tecnolo-gie tale da rassicurare gli utilizzatori e la società (dimensione sociale, Miller 2019) ; iii) la definizione di parametri che possano favorire il mercato (dimensione economi-ca, OECD 2020); iv) la certezza che si possa sempre giungere ad una spiegazione del comportamento della macchina comprensibile all’uomo e quindi comparabile con la norma giuridica che regola la società (dimensione giuridica, Pagallo 2020, Palmirani 2020 ); v) la possibilità di includere principi etici per un progetto umanamente soste-nibile (dimensione etica, Floridi 2019). Per affrontare queste sfide occorre sicuramente analizzare il ciclo di vita del pro-cesso di decisione automatica condotto con l’uso dell’AI, includendo l’analisi della raccolta dei dati (training, testing, dati misti, statistici, sintetici, ecc.), la definizione dei modelli matematici, le specifiche di progettazione del software, l’analisi di sicu-rezza e ribadire con forza la necessità di introdurre principi di trasparenza e compren-sione del comportamento automatico e di spiegabilità sin dalla sua ideazione (by-design). In questo scritto si vuole esaminare il rapporto fra Big Data e AI (c.d. modelli e al-goritmi) alla luce dell’esigenza sempre più pressante di spiegabilità del processo di decisione automatica (ADM ) andando oltre all’indicazione fornita dall’art. 22 del GDPR ed esaminando alcuni spunti forniti dalle recenti sentenze in ambito ammini-strativo del Consiglio di Stato e dalle indicazioni della Commissione Europea in me-rito a responsabilità civile . Per fare questo occorre addentrarsi nella relazione fra Big Data e AI, dare delle definizioni legate alla spiegabilità e analizzare le vulnerabilità dell’art. 22 per poi giungere alla proposizione di una possibile metodologia.

Interpretabilità, conoscibilità, spiegabilità dei processi decisionali automatizzati

Monica Palmirani
2021

Abstract

L’OSCE nel suo report The Impact of Big Data and Artificial Intelligence (AI) in the Insurance Sector ci informa che il mercato delle applicazioni basate su tecniche di in-telligenza artificiale (AI) è in crescente aumento e si stima possa produrre un prodotto interno lordo globale di oltre quindicimila miliardi di dollari entro il 2030 . L’European Banking Authority ha stimato che circa il 64% delle banche europee sta utilizzando strumenti di AI. Entrambi i report citati, provenienti da settori con elevato impatto sociale ed economico, ci forniscono significativi spunti di riflessione sul fon-damentale ruolo che i dati svolgono nella realizzazione delle applicazioni concrete dell’AI e di come principi di conoscibilità e comprensibilità debbano essere inclusi nel processo di produzione di tali artefatti per soddisfare diverse necessità: i) la traspa-renza del processo di decisione automatico al fine di verificarne l’esattezza e l’accuratezza e poterlo correggere (dimensione tecnologica, Adadi 2018) ; ii) la crea-zione di un sentimento di fiducia individuale e collettivo in queste emergenti tecnolo-gie tale da rassicurare gli utilizzatori e la società (dimensione sociale, Miller 2019) ; iii) la definizione di parametri che possano favorire il mercato (dimensione economi-ca, OECD 2020); iv) la certezza che si possa sempre giungere ad una spiegazione del comportamento della macchina comprensibile all’uomo e quindi comparabile con la norma giuridica che regola la società (dimensione giuridica, Pagallo 2020, Palmirani 2020 ); v) la possibilità di includere principi etici per un progetto umanamente soste-nibile (dimensione etica, Floridi 2019). Per affrontare queste sfide occorre sicuramente analizzare il ciclo di vita del pro-cesso di decisione automatica condotto con l’uso dell’AI, includendo l’analisi della raccolta dei dati (training, testing, dati misti, statistici, sintetici, ecc.), la definizione dei modelli matematici, le specifiche di progettazione del software, l’analisi di sicu-rezza e ribadire con forza la necessità di introdurre principi di trasparenza e compren-sione del comportamento automatico e di spiegabilità sin dalla sua ideazione (by-design). In questo scritto si vuole esaminare il rapporto fra Big Data e AI (c.d. modelli e al-goritmi) alla luce dell’esigenza sempre più pressante di spiegabilità del processo di decisione automatica (ADM ) andando oltre all’indicazione fornita dall’art. 22 del GDPR ed esaminando alcuni spunti forniti dalle recenti sentenze in ambito ammini-strativo del Consiglio di Stato e dalle indicazioni della Commissione Europea in me-rito a responsabilità civile . Per fare questo occorre addentrarsi nella relazione fra Big Data e AI, dare delle definizioni legate alla spiegabilità e analizzare le vulnerabilità dell’art. 22 per poi giungere alla proposizione di una possibile metodologia.
2021
XXVI lezioni di Diritto dell'Intelligenza Artificiale
66
79
Monica Palmirani
File in questo prodotto:
Eventuali allegati, non sono esposti

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11585/829878
 Attenzione

Attenzione! I dati visualizzati non sono stati sottoposti a validazione da parte dell'ateneo

Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact