Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, ha iniziato ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad una semplificante unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di un significativo mutamento di opinione del Parlamento europeo, anche le proposte degli esperti del MiSE prospettano la necessità di un attento "riesame" delle discipline nazionali in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Così il rapporto di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal è esattamente qualificato dal rapporto di “custodia” di cui all’art. 2051 c.c. Ma v’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente è articolata tra i poli della responsabilità civile e della sicurezza sociale. Nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di “responsabilità” verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.

INTELLIGENZE ARTIFICIALI E RESPONSABILITA' CIVILE / PROCIDA MIRABELLI DI LAURO, Antonino. - (2020), pp. 507-558.

INTELLIGENZE ARTIFICIALI E RESPONSABILITA' CIVILE

PROCIDA MIRABELLI DI LAURO, ANTONINO
2020

Abstract

Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, ha iniziato ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad una semplificante unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di un significativo mutamento di opinione del Parlamento europeo, anche le proposte degli esperti del MiSE prospettano la necessità di un attento "riesame" delle discipline nazionali in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Così il rapporto di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal è esattamente qualificato dal rapporto di “custodia” di cui all’art. 2051 c.c. Ma v’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente è articolata tra i poli della responsabilità civile e della sicurezza sociale. Nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di “responsabilità” verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.
2020
978-88-495-4303-2
INTELLIGENZE ARTIFICIALI E RESPONSABILITA' CIVILE / PROCIDA MIRABELLI DI LAURO, Antonino. - (2020), pp. 507-558.
File in questo prodotto:
File Dimensione Formato  
PROCIDA - FEOLA DIR. OBBL. COPERTINA.pdf

accesso aperto

Descrizione: COPERTINA DEL VOLUME
Tipologia: Documento in Post-print
Licenza: Dominio pubblico
Dimensione 1.63 MB
Formato Adobe PDF
1.63 MB Adobe PDF Visualizza/Apri
PROCIDA - FEOLA DIR. OBBL. INDICE SOMMARIO.pdf

accesso aperto

Descrizione: INDICE-SOMMARIO
Tipologia: Documento in Post-print
Licenza: Dominio pubblico
Dimensione 1.31 MB
Formato Adobe PDF
1.31 MB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11588/820668
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact