Un numero crescente di applicazioni basate sull’intelligenza artificiale è utilizzato nel settore assicurativo. Il saggio analizza questa tendenza con specifico riferimento alla distribuzione assicurativa per il ruolo che essa riveste nella relazione tra le imprese di assicurazione ed i clienti/assicurati. L’analisi è condotta sulla scorta del Regolamento europeo sull’intelligenza artificiale (“AI Act”) appena pubblicato e si prefigge di valutare la coesistenza della nuova disciplina con quella che regola la distribuzione assicurativa. In particolare, si focalizza sui sistemi di intelligenza artificiale idonei ad essere qualificati ad alto rischio se adoperati rispetto a taluni prodotti assicurativi, e sugli obblighi che scaturiscono per le imprese e gli intermediari assicurativi che dovessero utilizzare i sistemi intelligenza artificiale anche quando non classificati come ad alto rischio.
The insurance sector is increasingly leveraging applications based on artificial intelligence. This essay scrutinises this trend, explicitly emphasising insurance distribution and its role in the relationship between insurance companies and customers/insured. The analysis is rooted in the recently published European Regulation on Artificial Intelligence (‘AI Act’). Its primary goal is to evaluate the coexistence of the new regulation with the regulations governing insurance distribution. Notably, it focuses on artificial intelligence systems that could be classified as high-risk for certain insurance products and on the obligations arising on insurers and intermediaries when using AI models even when not classified as high-risk.
1. L’utilizzo dell’AI nel ciclo assicurativo, la distribuzione assicurativa e l’AI Act. Premesse all’indagine - 2. I sistemi di AI cui si applica l’AI Act ed il loro rilievo per la distribuzione assicurativa - 3. L’approccio basato sul rischio dell’AI Act ed i sistemi di AI che saranno vietati nella distribuzione assicurativa - 4. Sistemi di intelligenza artificiale ad alto rischio nella distribuzione assicurativa: criteri ed esclusioni - 4.1. I prodotti assicurativi sulla vita e la salute che determinano la qualificazione dei sistemi di AI come ad alto rischio - 5. L’applicazione delle previsioni dell’AI Act alle imprese di assicurazione ed agli intermediari assicurativi nel caso di sistemi di AI ad alto rischio - 5.1. Nel caso di sistemi non classificabili come ad alto rischio - 6. Conclusioni - NOTE
L’innovazione tecnologica guida lo sviluppo sociale in ogni ambito e il settore assicurativo non è immune da questa tendenza sia implementando tale innovazione nelle diverse fasi del suo ciclo produttivo [1], sia supportandone la crescita [2]. Le tecnologie di intelligenza artificiale sono da tempo adottate nel ciclo assicurativo (anche) nell’Unione europea [3], assistendo o sostituendo il processo di revisione manuale dei documenti ai fini della determinazione del prezzo e della sottoscrizione [4], abbreviando i tempi di risposta nella procedura di reclamo, e rilevando potenziali frodi [5]. EIOPA registra l’esistenza di diversi tipi di casi d’uso dell’AI in ciascuna area della catena del valore assicurativo che sono progettati per svolgere compiti diversi [6], e rivela che l’AI è utilizzata in prevalenza nella distribuzione assicurativa [7]. In particolare, EIOPA constata che le chatbots sono il caso d’uso dell’AI più diffuso (64 imprese hanno riferito di utilizzarli) e vengono tipicamente utilizzate per aiutare i clienti a navigare nel sito web delle imprese o per rispondere a domande non sensibili. Le raccomandazioni di cross-selling e up-selling sono pure diffuse (51 imprese di assicurazione le utilizzano), e lo stesso numero di imprese di assicurazione utilizza l’intelligenza artificiale per stimare la probabilità di abbandono dei singoli clienti, ossia quali clienti hanno maggiori probabilità di annullare il contratto o di guardarsi intorno in fase di rinnovo. Incorporando sistemi di intelligenza artificiale per scopi generali (GPAI), le chatbots permettono ai distributori (imprese e intermediari assicurativi) di raccogliere enormi quantità di dati dai richiedenti assicurazione, comprendere meglio le loro richieste collegandole a specifici prodotti assicurativi, e gestire i sinistri [8]. Questi sistemi possono supportare il distributore nel processo di vendita integrandone e supportandone le conoscenze quando si relaziona con il cliente (c.d. hybrids) [9], o sostituirsi alla persona fisica nell’interazione con quest’ultimo. Nell’interazione con i clienti, inoltre, le chatbots possono utilizzare algoritmi per analizzare la situazione finanziaria, la tolleranza al rischio e gli obiettivi di investimento del cliente fornendogli consigli di investimento personalizzati (c.d. [continua ..]
Definire adeguatamente cosa sia un sistema di AI è di primaria importanza per garantire la corretta attuazione dell’AI Act [35]. Se il sistema di AI è definito in modo ampio, infatti, includerà inevitabilmente più tecnologie che non avrebbero dovuto essere coperte, così disincentivando l’innovazione. Al contrario, se il sistema di AI è definito in modo restrittivo, le tecnologie che avrebbero dovuto essere soggette a normative più severe saranno esentate ed i costi derivanti dai rischi legati all’utilizzo dell’AI saranno trasferiti agli utenti finali e ad altri attori; in definitiva, minando la fiducia che le persone hanno nell’innovazione dell’intelligenza artificiale. La versione originale dell’AI Act proposta dalla Commissione riferiva il sistema di AI al software «che è sviluppato con una o più delle tecniche e degli approcci elencati nell’Allegato I e può, per un dato insieme di attività umane obiettivi definiti, generano output come contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono». La riferita definizione, se idonea ad includere alcuni sistemi basati su inferenze statistiche che non sono descritti come sistemi di intelligenza artificiale, non era suscettibile di comprendere alcune applicazioni dell’AI emerse successivamente alla proposta della Commissione come il sistema AI per scopi generali (ad esempio ChatGPT). La versione approvata, pertanto, ha apportato una revisione sostanziale di tale definizione allineandola a quella offerta dall’OCSE che, a sua volta, l’ha aggiornata nel 2024 per tener conto dell’emergere delle anzidette tecnologie di AI [36]. Per sistema di intelligenza artificiale, si intende adesso un sistema progettato per funzionare con diversi livelli di autonomia e che può generare decisioni dedotte in grado d’influenzare ambienti fisici o virtuali [37]. Tale definizione, se è forse più analitica rispetto a considerare l’AI come quelle tecniche che imitano la risoluzione dei problemi e le capacità decisionali della mente umana [38], è ancora fonte di incertezza. Ciò che soddisfa i diversi livelli di autonomia, infatti, rimane poco chiaro. Il software tradizionale crea una serie di istruzioni che i computer devono seguire. Gli algoritmi su cui [continua ..]
Dopo aver individuato i sistemi di AI che dovrebbero essere compresi nel perimetro applicativo dell’AI Act e che potrebbero essere utilizzati nella distribuzione assicurativa, la prossima questione da chiarire attiene alla portata del c.d. approccio basato sul rischio sul quale si fonda la nuova disciplina, quando riferito alla distribuzione assicurativa. In generale, l’idea alla base di questo approccio è quella di differenziare le norme sui sistemi di AI sulla scorta dei profili di rischio ad essi attribuibili [41]. Pertanto, alcuni utilizzi dell’AI saranno vietati in considerazione della finalità del loro uso ritenuta contraria ai principi ispiratori dell’ordinamento europeo; altri sono considerati ad alto rischio implicando o potendo implicare un alto rischio per la salute, la sicurezza o per i diritti fondamentali delle persone fisiche, ed il loro utilizzo è subordinato al rispetto di determinati requisiti obbligatori e a una valutazione di conformità ex ante; infine, i sistemi di AI che comportano un rischio basso o minimo dovranno solamente rispettare alcuni minimi requisiti di trasparenza. Questa scelta regolamentare richiede di investigare in che misura specifiche applicazioni dell’AI nella distribuzione assicurativa saranno coperte dall’AI Act, in quale categoria rientreranno e che tipo di requisiti legali specifici dovranno soddisfare. Nell’approcciare i profili anzidetti, è necessaria una notazione preliminare. La regolazione e la vigilanza assicurativa della UE hanno come obiettivo primario la tutela degli assicurati [42]. L’AI Act riconosce che la disciplina UE sui servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di AI [43]. Di talché, l’uso di sistemi di intelligenza artificiale è comunque soggetto alla disciplina sull’attività di distribuzione assicurativa per i profili non disciplinati dall’AI Act [44]; mentre, spetta ad EIOPA ed alle autorità di vigilanza nazionali in materia assicurativa [45], il compito di evitare duplicazioni negli adempimenti richiesti dall’AI Act rispetto a quelli previsti dalla normativa sulla distribuzione assicurativa [46], tenendo conto del principio di [continua ..]
Oltre a quelli vietati, l’AI Act classifica alcuni sistemi di AI come ad alto rischio [58]. Inoltre, individua delle condizioni che permettono di escluderli da tale classificazione [59], salvo i sistemi siano usati per profilare persone fisiche [60]. In via di principio, quindi, ogni applicazione dell’AI al ciclo assicurativo, inclusa la distribuzione assicurativa e a prescindere dal tipo di prodotto distribuito, è suscettibile di essere qualificata ad alto rischio ricorrendone i presupposti. In aggiunta, l’AI Act seleziona alcune funzionalità dei sistemi di AI e le riferisce a talune fattispecie di prodotti assicurativi disponendo espressamente che sono considerati sistemi di AI ad alto rischio «i sistemi di AI destinati a essere utilizzati per la valutazione del rischio e la tariffazione in relazione alle persone fisiche nel caso di assicurazioni sulla vita e sulla salute» [61]. La scelta dell’AI Act di fissare dei criteri per includere alcuni sistemi di AI nella categoria di quelli ad alto rischio, escludere tale classificazione ricorrendo determinate condizioni, e qualificare espressamente come ad alto rischio taluni usi dell’AI quando riferiti (solo) alle assicurazioni sulla vita e la salute, solleva alcune questioni. In primo luogo, scorrendo la lista dei sistemi classificati ad alto rischio, si scorge che sono compresi alcuni sistemi legati alla biometria [62]. I dati biometrici sono dati personali sensibili che meritano una protezione aggiuntiva offerta non solo dalla normativa sulla protezione dei dati, ma anche dall’AI Act [63]. Pertanto, se un sistema di AI utilizza dati biometrici per classificare o dedurre il comportamento o le preferenze [64] (ad eccezione degli attributi vulnerabili), o lo stato emotivo degli assicurati [65], potrebbe essere classificato come sistema di AI ad alto rischio a prescindere dai prodotti assicurativi di cui supporta la distribuzione. Una siffatta classificazione è esclusa, tuttavia, ove la categorizzazione biometrica sia una caratteristica puramente accessoria e intrinsecamente legata alla distribuzione del prodotto assicurativo, nel senso che la caratteristica non può, per ragioni tecniche oggettive, essere utilizzata senza tale prodotto e l’integrazione di tale caratteristica o funzionalità non è un mezzo per eludere l’applicabilità delle norme dell’AI [continua ..]
Come accennato nel paragrafo precedente, l’AI Act qualifica ad alto rischio taluni sistemi di intelligenza artificiale se utilizzati espressamente nell’attività assicurativa. Prescindendo dalla considerazione espressa poc’anzi sulla possibilità che la qualificazione come ad alto rischio sia da escludere, ove i sistemi si limitino a supportare la decisione dell’impresa di assicurazione e non configurino una profilazione del cliente, i sistemi di AI sono ad alto rischio nell’attività assicurativa ricorrendo congiuntamente due condizioni. L’una, attiene propriamente alla funzione dei sistemi di intelligenza artificiale essendo necessario che siano impiegati per la «valutazione del rischio e la determinazione dei prezzi»; l’altra, riguarda i prodotti rispetto ai quali tali sistemi sono utilizzati dovendo essi rientrare tra le assicurazioni «sulla vita e la salute». Riguardo alla prima condizione, il supporto fornito dal sistema di intelligenza artificiale al processo di valutazione del rischio deve essere funzionale alla determinazione del premio (: tariffa) corrispondente alla valutazione del rischio così compiuta. In mancanza di tale nesso, l’uso disgiunto dei sistemi anzidetti non dovrebbe essere classificato, in principio, come ad alto rischio. Tale conclusione, oltre a fondarsi sul dato letterale consistente nell’uso della congiunzione per identificare quei sistemi [73], è coerente ad una considerazione circa l’effettivo rischio per la persona fisica che può scaturire dall’utilizzo dell’AI, consistente nella richiesta di un premio derivante da un processo esclusivamente basato sui sistemi di AI. La riferita conclusione opera riguardo alle assicurazioni «sulla vita e la salute» essendo quest’ultima la seconda condizione da soddisfare. Un siffatto riferimento solleva alcuni dubbi relativamente al suo perimetro applicativo. Sebbene l’espressione “assicurazioni sulla vita” comprenda astrattamente tutte le assicurazioni e le operazioni di cui all’art. 2, comma 1, cod. ass., non sempre ricorre l’altro presupposto richiesto per la sussunzione tra i sistemi ad alto rischio, ossia l’utilizzo dell’AI per valutare il rischio e determinare il prezzo. Pertanto, è plausibile che non tutte le assicurazioni comprese nei rami vita soddisfino la condizione [continua ..]
L’AI Act richiede ad una serie di soggetti, definiti cumulativamente come “operatori” [79], di rispettare gli obblighi derivanti dall’utilizzo dei sistemi di AI ad alto rischio. Tale disciplina s’innesta sulla normativa riguardante l’organizzazione della distribuzione assicurativa che mira a garantire la conformità di quest’organizzazione al principio di tutela dei clienti che entrano in relazione con i distributori assicurativi. Alla prospettiva “tradizionale” della responsabilità solidale tra le imprese di assicurazione e gli intermediari di cui si avvalgono, e tra questi ultimi ed i loro collaboratori [80], nonché a quella recente che l’afferma in taluni casi tra le imprese ed i collaboratori degli intermediari [81], si è da tempo aggiunto un dovere di vigilanza delle imprese sulle reti distributive, conseguente alla progressiva procedimentalizzazione dell’organizzazione della distribuzione, la cui inosservanza le espone a sanzioni nei confronti dell’autorità. Le imprese, infatti, devono dotarsi di una politica di organizzazione, gestione e controllo della distribuzione [82], spettando alla funzione compliance redigere una relazione annuale che illustri le relative azioni di monitoraggio segnalando eventuali criticità [83]; mentre, gli intermediari, devono rispettare le procedure e le istruzioni impartite dalle imprese per le quali operano e funzionali all’osservanza delle disposizioni sulla distribuzione assicurativa [84]. Il quadro normativo è integrato dalle previsioni sul governo del prodotto che impongono alle imprese di assicurazione di scegliere un canale distributivo adeguato e di accertarsi che la strategia distributiva degli intermediari sia coerente con quella suggerita dalle imprese [85]. L’insieme di tali previsioni postula che le imprese di assicurazione abbiano piena contezza del funzionamento dei sistemi di AI eventualmente impiegati dagli intermediari di cui avvalgono; consapevolezza che deve sussistere a fortiori ove esse decidano di distribuire i prodotti utilizzando i sistemi di AI senza avvalersi d’intermediari. Sulla scorta di tale premessa, è possibile identificare in quali delle categorie soggettive previste dall’AI Act sono suscettibili, per lo più, di essere compresi i distributori assicurativi, sì da comprendere appieno le [continua ..]
Oltre a quelli vietati e ad alto rischio, esistono anche alcuni sistemi di AI che potrebbero non generare rischi significativi per la sicurezza e i diritti fondamentali, ma il loro funzionamento può essere opaco aumentando il rischio che gli utenti finali possano fraintendere l’output di un sistema di intelligenza artificiale. In tal caso, l’AI Act ha anche individuato i sistemi di AI con obblighi di trasparenza da parte dei loro fornitori che devono progettare tali sistemi in modo tale che le persone che interagiscono con il sistema siano sufficientemente informate di tale circostanza, salvo l’interazione non sia evidente dal punto di vista di una persona fisica [109]. Nel caso della distribuzione assicurativa, si rileva che tale previsione è in linea con quanto auspicato da EIOPA secondo cui tale avvertenza dovrebbe essere sempre fornita ai consumatori [110]. Nel caso i cui i deployers utilizzino dei sistemi di riconoscimento emotivo o un sistema di categorizzazione biometrica per dedurre il profilo di rischio e consigliare ulteriormente prodotti assicurativi – eventualità che potrebbe accadere nella distribuzione assicurativa – essi devono informare le persone di tale circostanza ed ottenerne il consenso [111]. Obblighi specifici, infine, gravano sui fornitori di sistemi di AI per scopo generale (GPAI), come ChatGPT [112], distinguendo se presentano rischi sistemici [113]. Questa scelta regolamentare è controversa [114], ma tali obblighi aggiuntivi non dovrebbero riguardare i distributori assicurativi se rimangono deployers.
Questo saggio ha analizzato l’approccio basato sul rischio postulato dall’AI Act al fine d’individuare la riconducibilità, in seno alle sue previsioni, delle diverse applicazioni che sono o si prevede siano utilizzate nella distribuzione assicurativa essendo questa la fase del ciclo assicurativo che più di altre registra l’uso dell’AI. A seconda dello scopo delle applicazioni di AI, queste potrebbero essere definite come pratiche vietate, pratiche ad alto rischio o applicazioni con determinati rischi, laddove l’analisi ha investigato l’espressione “assicurazioni sulla vita e la salute” in quanto idonea ad influire sulla classificazione anzidetta. I distributori assicurativi in quanto – prevedibilmente – deployers di sistemi di intelligenza artificiale non saranno soggetti agli stessi obblighi imposti ai fornitori. Nonostante ciò, la scelta dei distributori di utilizzare sistemi di intelligenza artificiale a supporto della loro attività determina sia la soggezione a taluni obblighi, sia lo scaturire di alcune conseguenze per le imprese di assicurazione per conto delle quali distribuiscono i prodotti. Le disposizioni dettate dall’AI, infatti, s’innestano su quelle che disciplinano la distribuzione assicurativa. Il saggio ha identificato alcuni aspetti che richiedono un coordinamento tra le due discipline per evitare duplicazioni e, nel rispetto del principio di proporzionalità, garantire un’adeguata tutela agli assicurati.