La responsabilità civile per i danni provocati da sistemi di intelligenza artificiale. Interpretazione evolutiva dello strumentario giuridico vigente e prospettive Europee

AuthorGiovanna D'alfonso
ProfessionProfessore Associato Di Diritto Privato. Università Degli Studi Della Campania 'Luigi Vanvitelli'
Pages1311-1340
— 1311 —
LA RESPONSABILITà CIvILE PER I dANNI
PROvOCATI dA SISTEMI dI INTELLIGENZA
ARTIfICIALE. INTERPRETAZIONE EvOLUTIvA
dELLO STRUMENTARIO GIURIdICO vIGENTE E
PROSPETTIvE EUROPEE 1
G D’
Professore Associato Di Diritto Privato.
Università Degli Studi Della Campania “Luigi Vanvitelli
1. La responsabilità civile per danni provocati da sistemi di intelligenza
artificiale tra interpretazione evolutiva della disciplina vigente e innovazione
normativa. 2. Gli strumenti normativi. Intelligenza artificiale e responsabilità
per danida prodotto difettoso: questioni aperte. 2.1. L’inadeguatezza di taluni
modelli tradizionali di responsabilità civile di fronte ai nuovi scenari dannosi. 2.2.
L’invocabilità del regime della responsabilità da cose in custodia. 3. I tradizionali
paradigmi di responsabilità civile e limiti applicativi. 4. Sistema multilivello della
responsabilità da intelligenza artificiale. Prospettive europee.
1. Lo sviluppo rapido ed esponenziale delle tecnologie digitali emergenti
solleva nuove questioni di responsabilità civile, con riferimento alle decisioni ed
ai comportamenti assunti dai sistemi di intelligenza artificiale che cagionino danni
ai soggetti con i quali interagiscano. Ci si interroga sulla riconduzione delle nuove
ipotesi di responsabilità civile per l’intelligenza artificiale nell’alveo dei modelli
del nostro sistema ordinamentale, alla luce dei principi sviluppatisi in ambito
giurisprudenziale 2. Vieppiù, in vista dell’approvazione di provvedimenti europei,
1 Questo lavoro é il risultato del Progetto di Ricerca nanziato “Diritto e Intelligenza Articiale:
nuovi orizzonti giuridici della personalitá e responsabilitá robotica” (PID2019-108669RBI00 /AEI/
10.13039/501100011033), di cui la Prof.ssa Margarita Castilla Barea é la principale ricercatrice.
2 Ex multis, tra i più autorevoli contributi sul tema, si v. P. PERLINGIERI, S. GIOVA, I.
PRISCO (a cura di), “Rapporti civilistici e intelligenze articiali: attività e responsabilità, Napoli,
2020, passim; ID. (a cura di), “Il trattamento algoritmico dei dati tra etica, diritto e economia”, Napoli,
2020, passim; G. ALPA (a cura di) “ Diritto e intelligenza articiale. Proli generali, soggetti, contratti,
1312 G D’
finalizzati ad offrire soluzioni alle nuove sfide poste dall’innovazione tecnologica,
sorge il quesito se non sia appropriato operare uno sforzo di coordinamento ed
aggiornamento della normativa vigente.
Nell’affrontare la tematica, occorre osservare, in via preliminare, che le nuove
forme di tecnologia digitale, più o meno automatizzate, possono dar luogo
ad una pluralità di scenari dannosi completamente diversi, rispetto a quelli
tradizionalmente affrontati a livello giurisprudenziale 3. Ciò accade non soltanto
quando i danni siano provocati dai robot che compiano attività che potrebbero
essere svolte dagli esseri umani, ma anche quando siano cagionati da intelligenze
artificiali, dotate di capacità di autoapprendimento, le cui scelte siano assunte in
base all’elaborazione di un algoritmo 4.
Queste ultime si connotano per l’attitudine ad assumere decisioni autonome che
conseguano ad un processo di adattamento c.d. self learning: il sistema intelligente si
confronta con la realtà e si trasforma coerentemente con i dati esperienzali acquisiti
nel tempo 5, elaborando decisioni e comportamenti che potrebbero non essere previsti
in fase di progettazione e rappresentare invece il risultato di interazioni inaspettate tra
le componenti del sistema o con il contesto nel quale operino 6. I loro comportamenti
e le loro decisioni sono complessi, opachi, incontrollabili ed imprevedibili e, dunque,
non facilmente accertabili e possono condurre all’erroneità degli output, a potenziali
discriminazioni (si pensi al credit scoring che incide sulle decisioni delle banche di
erogare il credito) ed alla compromissione delle libertà e dei diritti fondamentali della
persona, quali la sicurezza degli individui, la loro salute, la vita privata e la protezione
dei dati personali, l’integrità, la dignità, l’autodeterminazione 7.
responsabilità civile, diritto bancario e nanziario, processo civile”, Pisa, 2020, passim; U. RUFFOLO (a
cura di), “Intelligenza articiale. Il diritto, i diritti, l’etica, Torino, 2020, passim; A. SANTOSUOSSO,
“Intelligenza e diritto. Perché le nuove tecnologie sono una grande opportunità per il diritto, Milano,
2020, passim; S. FARO, T.E. FROSINI, G. PERUGINELLI, Dati e algoritmi. Diritto e diritti nella società
digitale, Bologna, 2020, passim; A. BUZZELLI, M. PALAZZO (a cura di), “Intelligenza articiale e
diritti della persona”, Pisa, 202, passim. G. SARTOR, “L’intelligenza articiale e il diritto, Torino,
2022, passim.
3 A. AMIDEI, “Robotica intelligente e responsabilità: proli e prospettive evolutive del quadro
normativo europeo”, in Giur.it, 2021 p. 100.
4 L. COPPINI, “Robotica e intelligenza articiale: questioni di responsabilità civile”, in Politica
del diritto, 2018, p. 722. È imprescindibile la precisazione che non si può parlare di un’unica intelligenza
articiale, ma deve diversamente parlarsi di intelligenze articiali al plurale, poiché le stesse possono
dierenziarsi, a seconda dei tipi di machine learning o di agenti soware, più o meno autonomi.
5 U. SALANITRO, “Intelligenza articiale e responsabilità: la strategia della Commissione
Europea”, in Riv.dir.civ., 2020, p. 1247.
6 L. COPPINI, op.cit., p. 721.
7 Sul punto M. GAMBINI, “Responsabilità civile e controlli del trattamento algoritmico”, in.
P. PERLINGIERI, S. GIOVA, I. PRISCO (a cura di), “Il trattamento algoritmico dei dati tra etica,
diritto e economia”, op.cit., p. 314; sull’erroneità degli output, D. DI SABATO, “Strumenti riparatori
e risarcitori”, ivi, p. 338. Autorevolmente P. PERLINGIERI, “Relazione conclusiva, ivi, p. 383,

To continue reading

Request your trial

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT