Assicurazioni - Rivista di diritto, economia e finanza delle assicurazioni privateISSN 0004-511X
G. Giappichelli Editore

indietro

stampa articolo indice fascicolo leggi articolo leggi fascicolo


I robot fra responsabilità e assicurazione (di Antonio La Torre)


L’Autore, muovendo dal commento alla Risoluzione del Parlamento europeo del 2017 in tema di robotica, esamina alla luce del diritto vigente il problema della responsabilità per i danni causati dai robot, facendo riferimento anche all’assicurazione e conclude criticando il proposito di elevare i robot intelligenti al rango di soggetti del diritto.

SOMMARIO:

1. Premessa: norme giuridiche sulla robotica - 2. La Risoluzione del Parlamento europeo del 2017 - 3. Segue: valutazioni de jure condendo - 4. Un commento alla Risoluzione europea del 2017 - 5. Valutazioni de jure condito: due confronti - 6. Segue: un terzo confronto - 7. Con riferimento alla responsabilità - 8. Con riferimento all’assicurazione - 9. Una riflessione per concludere - NOTE


1. Premessa: norme giuridiche sulla robotica

Il mio ultimo libro: Responsabilità e assicurazione si chiudeva col riferimento alla “Risoluzione del Parlamento europeo” del 16 febbraio 2017, recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica [1]. Ed è questo il punto di partenza del presente scritto.


2. La Risoluzione del Parlamento europeo del 2017

Nei “Considerando” della Introduzione la Risoluzione del 2017 avverte che lo sviluppo di macchine autonome e intelligenti genera “anche una serie di preoccupazioni circa gli effetti diretti e indiretti sulla società nel suo complesso” (Cons. G.), potendo “dar luogo a nuove preoccupazioni in materia di responsabilità” (Cons. L.), per cui “i soggetti coinvolti … devono essere preparati ad accettare di essere legalmente responsabili della qualità della tecnologia prodotta” (Cons. M.), senza escludere la possibilità “che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana” (Cons. P.), tanto che “alcuni Stati membri hanno iniziato a riflettere sulla possibile elaborazione di norme giuridiche o sull’introduzione di cambiamenti legislativi per tenere conto delle applicazioni emergenti di tali tecnologie” (Cons. R.). Ai “Considerando” della Introduzione seguono quelli dei Principi generali, dove si legge che le auspicabili norme in tema di responsabilità “non devono influenzare il processo di ricerca, innovazione e sviluppo nel settore della robotica” (Cons. U.), pur ammettendo che in un contesto in cui i robot “interagiscono con l’ambiente circostante e sono in grado di alterarlo in modo significativo … la questione della responsabilità giuridica derivante dal­l’azione nociva di un robot diventa esenziale” (Cons. Z.). Se si pensa poi “che più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, l’operatore, il proprietario, l’utilizzatore ecc.)” e “più incalzante si pone il quesito se le regole ordinarie in materia di responsabilità siano sufficienti o se ciò renda necessari nuovi principi e regole volte a chiarire la responsabilità legale di suoi attori …” (Cons. A. B.) dato che “nell’attuale quadro giuridico i robot non possono essere considerati responsabili in proprio per atti o omissioni che causano danni a terzi” (Cons. A. D.).


3. Segue: valutazioni de jure condendo

Sulla base dei “Considerando” sopra riassunti, la Risoluzione del Parlamento europeo, sotto il titolo “Principi generali riguardanti lo sviluppo della robotica e dell’intelligenza artificiale per uso civile”, rivolge una serie di inviti o suggerimenti alla Commissione, fornendo fra l’altro alcune indicazioni in tema di responsabilità e di assicurazione. Sotto il primo profilo (Responsabilità): “53. Ritiene che il futuro strumento legislativo debba essere fondato su una valutazione approfondita della Commissione che stabilisca se applicare l’approccio della responsabilità oggettiva o della gestione dei rischi”. “54. Osserva al contempo che la responsabilità oggettiva richiede una semplice prova del danno avvenuto e l’individuazione di un nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte lesa”. “55. Constata che l’approccio di “gestione dei rischi non si concentra sulla persona “che ha agito con negligenza” in quanto responsabile a livello individuale, bensì sulla persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo”. “56. Ritiene che “… almeno nella fase iniziale la responsabilità deve essere imputata a un essere umano e non a un robot”. Sotto il secondo profilo (Assicurazione): “57. Sottolinea che … a differenza del regime assicurativo per i veicoli a motore, che copre azioni o errori umani, l’assicurazione dei robot dovrebbe tenere conto di tutte le eventuali responsabilità lungo la catena”. “58. Ritiene che, come avviene nel caso dell’assicurazione dei veicoli a motore, tale regime assicurativo potrebbe essere integrato da un fondo per garantire la possibilità di risarcire i danni in caso di assenza di copertura assicurativa; invita il settore assicurativo a elaborare nuovi prodotti e tipologie da offrire in linea con i progressi della robotica”. E pertanto “59. Invita la Commissione a esplorare, esaminare e valutare, nell’ambito della valutazione d’impatto del suo futuro strumento legislativo, le implicazioni di tutte le soluzioni giuridiche possibili, fra cui: a) l’istituzione di un regine assicurativo obbligatorio, laddove pertinente e necessario per categorie specifiche di [continua ..]


4. Un commento alla Risoluzione europea del 2017

A volere esprimere un giudizio sulla “Risoluzione europea del 2017” – sopra riassunta nei punti salienti – l’approccio è piuttosto imbarazzante. Nella prima parte, riguardante la responsabilità (v. retro, § 2 e inizio § 3) il documento, più che indicare puntuali regole di condotta, sembra tracciare un quadro problematico al confine tra la realtà del diritto vigente e le possibili ipotesi formulabili de jure condendo. E con questo metodo prudenziale il Parlamento europeo si mostra piuttosto guardingo nel suggerire precisi criteri direttivi alla Commissione. Inoltre, compiacendosi di osservare che “nell’attuale quadro i robot non possono essere considerati responsabili in proprio negli atti o omissioni che causano danni a terzi” (“Cons.” A. D.), sembra lasciare aperta la possibilità di introdurre la regola opposta: ossia la soggettività giuridica dei robot; anzi, parrebbe auspicarla, non escludendo “che a lungo termine l’intelligenza artificiale superi la capacità intellettuale umana” (“Cons.” P.) [2]. Ma un tale auspicio, allo stato dell’attuale civiltà giuridica, sarebbe assurdo, oltre che impossibile. “Soggetto”, fisicamente e giuridicamente identificabile, può essere soltanto la persona umana, che ha la capacità giuridica fin dalla nascita (art. 1 c.c.), che acquista poi la capacità di agire (art. 2 c.c.), che ha capacità patrimoniale e che può rispondere civilmente e penalmente dei suoi atti [3]. Tale, invece, non e non può essere alcun altro essere vivente, come l’animale, né una entità artificiale, come il robot [4]. Ed è appena il caso di ricordare che, in epoche passate, neppure l’uomo che fosse in condizione servile (anche se d’intelligenza superiore) era soggetto di diritto [5]. Ma anche quando, nella parte conclusiva, la Risoluzione assume un contenuto più concreto (nn. 53-57), l’indicazione non va oltre l’alternativa tra il criterio della responsabilità oggettiva e quello della gestione del rischio. Ed è di temporaneo conforto (per l’orgoglio dei “nati da donna”) leggere al n. 56 che, “almeno nella fase iniziale, la responsabilità deve essere imputata a un essere umano e non a un [continua ..]


5. Valutazioni de jure condito: due confronti

Quanto detto finora riguarda il futuribile di una speciale disciplina dei robot più o meno intelligenti. Ed è problema che riguarda in primis gli organi legislativi competenti. Ma il giurista, che pensa ed opera al presente, non può attendere le nuove “tavole della legge”; deve ragionare e decidere de jure condito. E la proclamata completezza dell’ordinamento giuridico positivo (v. art. 12, comma 2, disp. prel. c.c.) esclude che un fenomeno – per quanto nuovo sia o possa sembrare – non trovi la sua regolamentazione nel sistema normativo vigente. Ebbene, a proposito del danno che può cagionare un robot di ultima o di prossima generazione, dotato di autonomia motoria e/o di capacità intellettuale uguale e persino superiore a quella dell’uomo, la prima domanda da porsi è questa: “ma si tratta veramente di un fenomeno nuovo nel mondo del diritto? Oppure, muovendo lo sguardo nei tempi lunghi della storia, ci si incontra col motto dell’Ecclesiaste ‘Nihil sub sole novum’?”. Si rifletta. E si scoprirà che il fenomeno, anche se in sembianze molto diverse, si è presentato fin dai primordi della civiltà giuridica: a) sia quanto al danno proveniente da una entità non umana, ma dotata di autonomia motoria; b) sia quanto al danno provocato da una entità dotata di autentica sostanza e intelligenza di essere umano. Sotto il primo profilo (sub a) è di intuitiva evidenza il riferimento al danno cagionato da animale di cui l’uomo sia proprietario o utente: una fattispecie, ora regolata dall’art. 2052 c.c., ma che sotto la denominazione di actio de pauperie, risale addirittura alla Legge delle XII Tavole (451 a.C.) [8]. Non può certo negarsi che una cosa artificiale come il robot si ponga al servizio dell’uomo non diversamente di come un cane viene addestrato per la caccia o un cavallo per la corsa. Sotto il secondo profilo (sub b), e pensando al danno cagionato proprio dai robot costruiti con intelligenza e fattezze umane, risulta ancora più calzante, evocando il diritto romano, il confronto col danno causato dallo schiavo. Questi, essendo privo di soggettività giuridica, era considerato alla stregua di una res, anche se animata, vivente e intelligente: in modo simile – nemesi della storia! – a [continua ..]


6. Segue: un terzo confronto

Ma si può fare anche un terzo confronto con un fenomeno che si è presentato in epoca storicamente assai più vicina: c) il danno provocato dai veicoli a motore. In proposito è anzitutto da osservare che quando, all’inizio del 1900, la placidità delle strade – fin allora dominio indisturbato dei pedoni e dei carri a trazione animale – fu turbata dall’irrompere chiassoso dei veicoli a motore (in principio chiamati “carrozze senza cavalli”), lo stupore non fu certo minore di quello che oggi può destare l’automezzo a guida robot. Ma come si regolò, allora, il legislatore? Dal regolamento emanato col r.d. 28 luglio 1901, n. 416 traspare la cautela con la quale si prendeva atto di questi nuovi “veicoli senza guida di rotaie e denominati automobili” (art. 1), disponendosi fra l’altro che ogni automobile (sostantivo allora declinato al maschile) deve essere sottoposto a nuova prova dopo l’eventuale riparazione (art. 3); che il motore e ogni altro accessorio dev’essere tale da produrre “il minor possibile incomodo per il pubblico” (art. 7); che non deve “impedire il passaggio ad altri veicoli” (art. 16); che la sua velocità, negli abitati, “non deve superare quella di un cavallo al trotto serrato” (art. 17). Ma dopo un decennio, il successo ben presto arriso al nuovo mezzo di locomozione, diffusosi con crescente rapidità, pose le premesse di un più completa e organica disciplina del settore, che fu attuato con la l. 30 giugno 1912, n. 739, “concernente la circolazione degli automobili”. E questa volta con l’introduzione di una fattispecie di responsabilità presunta a carico del conducente e del proprietario del veicolo: l’art. 5, infatti, obbligava entrambi in solido al risarcimento del danno da questo provocato, “quando non provino che da parte loro si è avuta ogni cura nell’evitare che il danno si verificasse”. Il citato art. 5 della legge del 1912, attraverso successive modificazioni formali (art. 79, r.d. 31 dicembre 1923, n. 3043; art. 122, r.d.l. 2 dicembre 1928, n. 3179, che enuncia distintamente la responsabilità del conducente e del proprietario), è passato nell’art. 120 del c.d. codice della strada di cui al t.u. 8 dicembre 1933, n. 1740, per essere infine [continua ..]


7. Con riferimento alla responsabilità

I tre confronti di cui si è parlato (§§ 5 e 6) vanno ora ripresi come parametri di valutazione normativa, ai fini di stabilire se gli artt. 2052, 2049 e 2053 c.c. siano ratione materiae applicabili – direttamente o per analogia – ai danni provocati dai robot intelligenti. Si tratta di una indagine legittimata, ed anzi imposta, dall’art. 12, comma 2, preleggi, secondo cui “se una controversia non può essere decisa con una precisa disposizione, si ha riguardo alle disposizioni che regolano casi simili o materie analoghe …” (analogia legis), mentre “se il caso risulta ancora dubbio, si decide secondo i principi generali dell’ordinamento giuridico dello Stato” (analogia iuris) [13]. Posto dunque che il fatto dannoso prodotto da robot intelligente è una fattispecie non espressamente regolata dalla legge, la lacuna può e deve essere colmata mediante una o più delle norme che sono dettate per casi simili. E ciò per quel principio di giustizia che impone di trattare in modo uguale situazioni equivalenti, cioè per certi aspetti uguali e per altri no, ma coincidenti per “la aedem ratio” [14]. Ciò premesso si consideri per primo il confronto con la fattispecie del “Danno cagionato da animali” di cui all’art. 2052 c.c., che dichiara responsa­bile il “proprietario” dell’animale o “chi se ne serve”. E non si richiede – come ha chiarito la dottrina – che l’animale appartenga a una determinata specie o che abbia natura aggressiva, né si distingue fra animali domestici, domati o selvatici [15]. Esiste anche l’animale ‘artificiale’, scientificamente configurato come un “sistema di elementi meccanici ed elettronici che simulano il comportamento animale” [16]. Ma non sembra proprio che in tale nozione possa farsi rientrare anche il robot antropomorfo, ossia con intelligenza e sembianze umane: manca qui, a ben riflettere, quel tratto di spiccata somiglianza che richiama la eadem ratio. Questa eadem ratio, invece, è perfettamente ravvisabile, nel robot antropomorfo, con riferimento alla fattispecie regolata dall’art. 2049 c.c., secondo cui “i padroni e i committenti sono responsabili per i danni arrecati dal fatto illecito dei [continua ..]


8. Con riferimento all’assicurazione

Il raffronto fra robot e assicurazione è tema che richiede una premessa. La summa divisio in materia di assicurazione, quanto all’oggetto, è quella che riguarda o le persone (vita, infortuni, malattie) o le cose; oppure, stando alla dicotomia riferita al contratto, distinguendo quello con il quale l’assi­curatore si obbliga a rivalere l’assicurato del “danno ad esso prodotto da un sinistro”, da quello col quale si obbliga “a pagare un capitale o una rendita al verificarsi di un evento attinente alla vita umana” (art. 1882 c.c.). Or è certo che nessun evento di quest’ultimo tipo (vita, morte, infortunio, malattia) può essere mai riferito ad un robot che, per quanto elevato possa essere il suo grado di perfezione tecnica e di intelligenza artificiale, resta pur sempre un manufatto o prodotto dell’industria e, come tale, insensibile agli “eventi attinenti alla vita umana”. Esso pertanto rientra nella categoria delle “cose” e, più precisamente dei “beni mobili” (art. 812, ultimo comma, c.c.): di conseguenza può formare oggetto soltanto di assicurazione contro i danni (ex art. 1904-1918 c.c.). Ed entro questo ambito: 1. o come cosa in sé, per il suo valore economico (artt. 1904, 1905, 1908, 1909 e 1912 c.c.); 2. o per il danno che essa produce al patrimonio (art. 1917 c.c.). Sotto il primo profilo, ossia come valore economico del bene in sé considerato, il robot può essere assicurato contro i rischi di perdita, distruzione, danneggiamento, rispettivamente assunti dai contratti di assicurazione contro il furto, o contro l’incendio, o contro gli accidenti del trasporto (per terra, per mare per aria). Ma quale che sia la tipologia contrattuale, valgono tutte le regole che fanno capo al principio indennitario, ossia: a) in colui cha assicura i robot deve esistere un “interesse” giuridicamente qualificato (proprietà o altro diritto reale) al risarcimento del danno (art. 1904 c.c.); b) a questo risarcimento l’assicuratore è tenuto “nei modi e neilimitistabiliti dal contratto” (art. 1905 c.c.); c) nell’accertare il danno non si può attribuire al robot perito o danneggiato “un valore superiore a quello che aveva al tempo del sinistro” (art. 1908 c.c.); d) l’assicurazione del robot per una somma [continua ..]


9. Una riflessione per concludere

Nelle pagine che precedono si è parlato del robot come oggetto del diritto, essendo – da sempre – riservato soltanto agli esseri umani la qualifica di persone e, come tali, soggetti del diritto. Ma si è pure visto [26] che previsioni d’avanguardia danno per certa e imminente l’attribuzione della soggettività giuridica ai robot intelligenti. Orbene, se si dà per certa e attuale una tale previsione, viene spontaneo il raffronto con una esperienza storica del passato; ed è inquietante l’interro­gativo che ne deriva. Ecco il raffronto: con l’istituto della schiavitù la civiltà giuridica dell’antica Roma aveva distinto gli esseri umani in due specie (homines aut liberi sunt aut servi), degradando così una larga massa di “uomini” alla categoria di “cose”. Di contro la civiltà giuridica del terzo millennio si accinge ad elevare certe “cose” (i robot dotati di intelligenza artificiale) al rango di “soggetti” del diritto. Al pari, quindi, degli esseri umani! Ed ecco l’inquietante interrogativo: In quale delle due civiltà la concezione di “uomo” risulta più umiliata? In quella che abbassava una parte dell’umanità al livello delle res? O in quella che certe “cose” intende parificare all’uomo?


NOTE