In presenza di recenti proposte di Regolamento (del 21 aprile 2021) e di Direttiva (del 28 settembre 2022), che, da un lato, si propongono di prevenire i rischi stabilendo standard di sicurezza (tutela ex ante), dall’altro, prevedono l’abrogazione della Direttiva recepita nel D.Lgs 206/2005 e la sostituzione con due direttive che “alleggeriscono” l’onere della prova a carico del danneggiato (tutela ex post) con la previsione di presunzioni legali relative, si pone la necessità di un attento "riesame" delle discipline vigenti in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La vigente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Ma il criterio di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal può essere qualificato anche dal rapporto di “custodia” di cui all’art. 2051 c.c. V’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto.
A.I. E RESPONSABILITA' CIVILE: RESPONSABILITA' OGGETTIVE E PER COLPA, TRA NORME CODICISTICHE E PROPOSTE DELL'U.E / PROCIDA MIRABELLI DI LAURO, Antonino. - (2023). (Intervento presentato al convegno INTELLIGENZA ARTIFICIALE E DIRITTO tenutosi a Alma Mater Studiorum. Università di Bologna - Scuola Superiore di Studi Giuridici - Palazzo Malvezzi, Sala Armi - via Zamboni 22 nel Martedì 24 ottobre 2023).
A.I. E RESPONSABILITA' CIVILE: RESPONSABILITA' OGGETTIVE E PER COLPA, TRA NORME CODICISTICHE E PROPOSTE DELL'U.E.
PROCIDA MIRABELLI DI LAURO, ANTONINO
2023
Abstract
In presenza di recenti proposte di Regolamento (del 21 aprile 2021) e di Direttiva (del 28 settembre 2022), che, da un lato, si propongono di prevenire i rischi stabilendo standard di sicurezza (tutela ex ante), dall’altro, prevedono l’abrogazione della Direttiva recepita nel D.Lgs 206/2005 e la sostituzione con due direttive che “alleggeriscono” l’onere della prova a carico del danneggiato (tutela ex post) con la previsione di presunzioni legali relative, si pone la necessità di un attento "riesame" delle discipline vigenti in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La vigente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Ma il criterio di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal può essere qualificato anche dal rapporto di “custodia” di cui all’art. 2051 c.c. V’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto.File | Dimensione | Formato | |
---|---|---|---|
UNIV. BOLOGNA AI e Diritto 2023.pdf
accesso aperto
Descrizione: LOCANDINA
Tipologia:
Versione Editoriale (PDF)
Licenza:
Dominio pubblico
Dimensione
959.91 kB
Formato
Adobe PDF
|
959.91 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.