Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, inizia ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad una semplificante unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di un significativo mutamento di opinione del Parlamento europeo, anche le proposte degli esperti del MiSE prospettano la necessità di un attento "riesame" delle discipline nazionali in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela però inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Così il rapporto di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal è specificamente qualificato dal rapporto di “custodia” di cui all’art. 2051 c.c. Ma v’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente si rivela per più versi inadeguata, dovendo la responsabilità civile cedere il passo a un più efficace modello di sicurezza sociale. Anche nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di “responsabilità” verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.

LE INTELLIGENZE ARTIFICIALI TRA RESPONSABILITA' CIVILE E SICUREZZA SOCIALE / PROCIDA MIRABELLI DI LAURO, Antonino. - (2020), pp. 297-357. (Intervento presentato al convegno 15° CONVEGNO NAZIONALE SISDiC. Rapporti civilistici e intelligenze artificiali: attività e responsabilità (Napoli, 14-16 maggio 2020) tenutosi a Grand Hotel Vesuvio, Napoli nel 14 - 15 - 16 maggio 2020).

LE INTELLIGENZE ARTIFICIALI TRA RESPONSABILITA' CIVILE E SICUREZZA SOCIALE

PROCIDA MIRABELLI DI LAURO, ANTONINO
2020

Abstract

Negli ultimi tempi il tema della Artificial Intelligence (A.I.), soprattutto nella sua evoluzione self-learning, inizia ad interessare sempre più la riflessione giuridica, non soltanto al fine di descrivere i diversi fenomeni, pur analoghi ma non sempre riconducibili ad una semplificante unità, quanto allo scopo di individuare i possibili rimedi esperibili, in ciascun sistema giuridico, nel caso di eventi dannosi arrecati alla controparte contrattuale o a terzi. Quindi, più che di un’unica Intelligenza Artificiale, sembra opportuno parlare di “intelligenze artificiali” al plurale, non escludendo che, anche sotto il profilo delle tutele, queste possano differenziarsi in ordine ai diversi modelli di intelligenza artificiale ed ai diversi tipi di tool, di machine learning o di agenti software (più o meno) autonomi che possono venire in considerazione nei differenti settori dei rapporti civili. In presenza di un significativo mutamento di opinione del Parlamento europeo, anche le proposte degli esperti del MiSE prospettano la necessità di un attento "riesame" delle discipline nazionali in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela però inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Così il rapporto di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal è specificamente qualificato dal rapporto di “custodia” di cui all’art. 2051 c.c. Ma v’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto. Riguardo alla responsabilità per i danni causati dalla circolazione di veicoli self-driving, la “rilettura” della disciplina vigente si rivela per più versi inadeguata, dovendo la responsabilità civile cedere il passo a un più efficace modello di sicurezza sociale. Anche nel settore della robotica medica e dei veicoli self-driving, l’incidenza dell’evoluzione tecnologica spinge al superamento dell’idea di “responsabilità” verso modelli di imputazione dei danni a titolo di absolute liability, “garantiti” dall’assicurazione obbligatoria, da fondi di garanzia e/o da piani di social security.
2020
978-88-495-4538-8
LE INTELLIGENZE ARTIFICIALI TRA RESPONSABILITA' CIVILE E SICUREZZA SOCIALE / PROCIDA MIRABELLI DI LAURO, Antonino. - (2020), pp. 297-357. (Intervento presentato al convegno 15° CONVEGNO NAZIONALE SISDiC. Rapporti civilistici e intelligenze artificiali: attività e responsabilità (Napoli, 14-16 maggio 2020) tenutosi a Grand Hotel Vesuvio, Napoli nel 14 - 15 - 16 maggio 2020).
File in questo prodotto:
File Dimensione Formato  
Procida Mirabelli di Lauro (2), RELAZIONE SISDiC.pdf

non disponibili

Descrizione: SAGGIO
Tipologia: Documento in Post-print
Licenza: Accesso privato/ristretto
Dimensione 580.47 kB
Formato Adobe PDF
580.47 kB Adobe PDF   Visualizza/Apri   Richiedi una copia
Procida Mirabelli di Lauro (2), RELAZIONE SISDiC.pdf

accesso aperto

Descrizione: SAGGIO
Tipologia: Documento in Post-print
Licenza: Accesso privato/ristretto
Dimensione 580.47 kB
Formato Adobe PDF
580.47 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11588/855737
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact