In presenza di recenti proposte di Regolamento (del 21 aprile 2021) e di Direttiva (del 28 settembre 2022), che, da un lato, si propongono di prevenire i rischi stabilendo standard di sicurezza (tutela ex ante), dall’altro, prevedono l’abrogazione della Direttiva recepita nel D.Lgs 206/2005 e la sostituzione con due direttive che “alleggeriscono” l’onere della prova a carico del danneggiato (tutela ex post) con la previsione di presunzioni legali relative, si pone la necessità di un attento "riesame" delle discipline vigenti in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La vigente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Ma il criterio di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal può essere qualificato anche dal rapporto di “custodia” di cui all’art. 2051 c.c. V’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto.

A.I. E RESPONSABILITA' CIVILE: RESPONSABILITA' OGGETTIVE E PER COLPA, TRA NORME CODICISTICHE E PROPOSTE DELL'U.E / PROCIDA MIRABELLI DI LAURO, Antonino. - (2023). (Intervento presentato al convegno INTELLIGENZA ARTIFICIALE E DIRITTO tenutosi a Alma Mater Studiorum. Università di Bologna - Scuola Superiore di Studi Giuridici - Palazzo Malvezzi, Sala Armi - via Zamboni 22 nel Martedì 24 ottobre 2023).

A.I. E RESPONSABILITA' CIVILE: RESPONSABILITA' OGGETTIVE E PER COLPA, TRA NORME CODICISTICHE E PROPOSTE DELL'U.E.

PROCIDA MIRABELLI DI LAURO, ANTONINO
2023

Abstract

In presenza di recenti proposte di Regolamento (del 21 aprile 2021) e di Direttiva (del 28 settembre 2022), che, da un lato, si propongono di prevenire i rischi stabilendo standard di sicurezza (tutela ex ante), dall’altro, prevedono l’abrogazione della Direttiva recepita nel D.Lgs 206/2005 e la sostituzione con due direttive che “alleggeriscono” l’onere della prova a carico del danneggiato (tutela ex post) con la previsione di presunzioni legali relative, si pone la necessità di un attento "riesame" delle discipline vigenti in tema di responsabilità. Superate le teorie, elaborate soprattutto dalla dottrina tedesca, che intendono riconoscere agli agenti software autonomi una soggettività giuridica piena o parziale, un primo dato essenziale consiste nel ribadire la centralità del principio di responsabilità solidale tra i molteplici soggetti che partecipano, a vario titolo, alla “catena di produzione” di una I.A. La vigente normativa di origine europea in materia di sicurezza e di qualità dei prodotti si rivela senz’altro inadeguata a disciplinare la responsabilità di “cose” animate da intelligenza artificiale, sia per il carattere polisenso della nozione di difetto, sia per la dinamica degli oneri probatori (nonostante gli importanti risultati cui sono pervenute la Cassazione e la Corte di Giustizia U.E in tema di prova presuntiva del difetto e del nesso causale), sia, soprattutto, per l’incompatibilità delle I.A. con il c.d. rischio da sviluppo. Sicuramente più adeguata appare, sussistendone i presupposti applicativi, la Gefährdungshaftung e la disciplina sulla responsabilità per l’esercizio di attività pericolose (art. 2050 c.c.). Ma il criterio di imputazione della responsabilità tra l’agente software autonomo che abbia cagionato danni al terzo e il principal può essere qualificato anche dal rapporto di “custodia” di cui all’art. 2051 c.c. V’è sempre la possibilità, da parte del danneggiato, di proporre il “concorso” tra gli artt. 2050 e 2051 c.c., che lascia al giudice la possibilità di qualificare la fattispecie con riferimento al singolo concreto rapporto.
2023
A.I. E RESPONSABILITA' CIVILE: RESPONSABILITA' OGGETTIVE E PER COLPA, TRA NORME CODICISTICHE E PROPOSTE DELL'U.E / PROCIDA MIRABELLI DI LAURO, Antonino. - (2023). (Intervento presentato al convegno INTELLIGENZA ARTIFICIALE E DIRITTO tenutosi a Alma Mater Studiorum. Università di Bologna - Scuola Superiore di Studi Giuridici - Palazzo Malvezzi, Sala Armi - via Zamboni 22 nel Martedì 24 ottobre 2023).
File in questo prodotto:
File Dimensione Formato  
UNIV. BOLOGNA AI e Diritto 2023.pdf

accesso aperto

Descrizione: LOCANDINA
Tipologia: Versione Editoriale (PDF)
Licenza: Dominio pubblico
Dimensione 959.91 kB
Formato Adobe PDF
959.91 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/11588/943776
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact