L'Autore affronta il tema dell’imputabilità delle decisioni dei sistemi di IA e delle regole di responsabilità ad essi applicabili. In particolare, dopo aver sommariamente ricostruito la storia dell’IA dall’iniziale approccio simbolico fino all’affermarsi delle moderne tecniche di machine learning, è stato affrontato in chiave critica il tema dell’eventuale attribuzione di una soggettività giuridica ai c.d. robot autonomi. A tal fine sono state analizzate le problematiche derivanti nell’applicazione dei tradizionali modelli di responsabilità extracontrattuale e da prodotto difettoso nel caso di danni causati dai sistemi di IA dotati di “autonomia”. È stata inoltre approfondita la proposta avanzata da una parte della dottrina italiana di applicare in via estensiva ai danni causati dai robot autonomi i tradizionali modelli di responsabilità ex artt. 2050 e 2051 Cod. civ., nonché la disciplina della responsabilità da attività pericolosa ex art. 2050 Cod. civ. e quella du fait de la chose ex art. 2051 Cod. civ. In relazione all’impiego dei sistemi di IA nell’attività contrattuale, dopo aver ricostruito le nozioni di contratti telematici, algoritmici e smart contracts, è stato affrontato il problema dell’imputazione degli effetti dei contratti conclusi dai sistemi di IA self learning alla luce delle principali soluzioni proposte dalla dottrina (i.e. attribuzione della soggettività giuridica; applicazione delle norme sulla rappresentanza; inquadramento dei sistemi di IA come meri mezzi di trasmissione della volontà del contraente umano). L'Autore ha inoltre ricostruito il composito approccio dell’Unione europea alle nuove tecnologie mediante l’analisi dei principali atti normativi e di soft law che affrontano il tema della regolamentazione dell’IA.
Francesco Boldrin (2023). Intelligenza Artificiale e questioni di responsabilità. San Lazzaro di Savena - Bologna : Bonomo Editore.
Intelligenza Artificiale e questioni di responsabilità
Francesco Boldrin
2023
Abstract
L'Autore affronta il tema dell’imputabilità delle decisioni dei sistemi di IA e delle regole di responsabilità ad essi applicabili. In particolare, dopo aver sommariamente ricostruito la storia dell’IA dall’iniziale approccio simbolico fino all’affermarsi delle moderne tecniche di machine learning, è stato affrontato in chiave critica il tema dell’eventuale attribuzione di una soggettività giuridica ai c.d. robot autonomi. A tal fine sono state analizzate le problematiche derivanti nell’applicazione dei tradizionali modelli di responsabilità extracontrattuale e da prodotto difettoso nel caso di danni causati dai sistemi di IA dotati di “autonomia”. È stata inoltre approfondita la proposta avanzata da una parte della dottrina italiana di applicare in via estensiva ai danni causati dai robot autonomi i tradizionali modelli di responsabilità ex artt. 2050 e 2051 Cod. civ., nonché la disciplina della responsabilità da attività pericolosa ex art. 2050 Cod. civ. e quella du fait de la chose ex art. 2051 Cod. civ. In relazione all’impiego dei sistemi di IA nell’attività contrattuale, dopo aver ricostruito le nozioni di contratti telematici, algoritmici e smart contracts, è stato affrontato il problema dell’imputazione degli effetti dei contratti conclusi dai sistemi di IA self learning alla luce delle principali soluzioni proposte dalla dottrina (i.e. attribuzione della soggettività giuridica; applicazione delle norme sulla rappresentanza; inquadramento dei sistemi di IA come meri mezzi di trasmissione della volontà del contraente umano). L'Autore ha inoltre ricostruito il composito approccio dell’Unione europea alle nuove tecnologie mediante l’analisi dei principali atti normativi e di soft law che affrontano il tema della regolamentazione dell’IA.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.