
Dal lancio dei primi modelli di Artificial Intelligence (AI) ha preso il via il dibattito sul loro impiego nel mondo del lavoro, in particolar modo nei settori professionali che richiedono competenze specialistiche e un alto livello di formazione.
L’AI sta infatti conoscendo un largo impiego in ambiti sempre più diversificati come: il campo medico, contribuendo ad accelerare le diagnosi; l’informatica, ridefinendo i processi di sviluppo software; il marketing, velocizzando l’analisi dei dati e supportando strategie mirate.
Una tendenza evidente anche nel settore assicurativo, dove sta trovando un ampio utilizzo: dalla determinazione dei prezzi, alla gestione dei sinistri, fino al rilevamento delle frodi.
Tuttavia, come ha evidenziato l’Autorità europea delle assicurazioni e delle pensioni aziendali e professionali (EIOPA) l’AI può anche porre le condizioni per nuovi rischi e amplificare quelli esistenti.
Tra le principali criticità emerge il tema della “spiegabilità” dei modelli di intelligenza artificiale: la difficoltà di conoscere appieno da quali fonti questi sistemi traggano le informazioni, come le elaborino e in che modo associno tra loro i diversi elementi analizzati. Questa mancanza di trasparenza, infatti, può aumentare il rischio di bias e generare risultati discriminatori.
Per questo motivo EIOPA, lo scorso febbraio, ha avviato una consultazione che si è conclusa ad agosto con la pubblicazione di un Parere dal titolo “Opinion AI governance and risk management”.
Quest’ultimo fornisce, alle imprese assicurative e agli operatori del settore, indicazioni dettagliate su questioni come governance, gestione dei rischi e supervisione dei sistemi di AI.
Il Parere EIOPA: indicazioni per un uso responsabile e a norma di legge dei modelli di Intelligenza artificiale.
Il Parere EIOPA si basa sulla definizione di AI contenuta nel Regolamento (UE) 2024/1689 (l’AI Act), pubblicato nella Gazzetta ufficiale dell’Unione europea:
“Un sistema basato su macchina progettato per operare con diversi livelli di autonomia e che può mostrare adattabilità dopo il suo impiego. Tale sistema, per obiettivi espliciti o impliciti, elabora input per generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”
Il Regolamento classifica i sistemi di AI in base a diversi livelli di rischio e si applica a tutti i settori dell’economia, con il fine di garantire la tutela dei diritti fondamentali, della salute e della sicurezza.
L’obiettivo del Parere è quindi quello di fornire indicazioni sull’applicazione dei principi e dei requisiti previsti dalla normativa assicurativa – in particolare la Direttiva sulla distribuzione assicurativa e la Direttiva Solvency II – con riferimento ai sistemi di intelligenza artificiale utilizzati nel settore che non rientrano nelle pratiche vietate o ad alto rischio ai sensi dell’AI Act (un esempio di pratiche ad alto a rischio sono quelle legate alla persona e alla salute, come la quotazione di una polizza vita).
Come sviluppare una strategia strutturata per la gestione dei rischi.
Secondo la Direttiva Solvency II le imprese assicurative devono disporre di un sistema di governance efficace in grado di garantire una gestione sana e prudente dell’attività, proporzionata alla natura, alla dimensione e alla complessità delle operazioni dell’impresa di assicurazione o riassicurazione (art.41)
L’EIOPA chiarisce, quindi, che le imprese dovrebbero sviluppare una strategia strutturata su sei aspetti principali:
-
Equità ed etica
-
Governance dei dati
-
Documentazione e registrazione
-
Trasparenza e spiegabilità
-
Accuratezza, robustezza e cybersicurezza
-
Supervisione umana
Analizziamoli insieme.
-
Equità ed Etica.
Iniziamo ricordando che secondo la normativa i distributori assicurativi devono sempre agire in modo equo, onesto e professionale (art.17 IDD).
A questo proposito, la Dichiarazione di vigilanza dell’EIOPA del 2023 sulle pratiche di pricing differenziale aveva già evidenziato che alcune di queste, basate sull’AI, non fossero conformi a tali requisiti.
Per questo motivo EIOPA, sostiene che le imprese hanno il dovere di mitigare tali rischi:
-
adottando solide politiche di governance e rimuovendo i rischi derivanti dalla gestione dei dati;
-
preparando adeguatamente il personale per fornire le conoscenze necessarie per il monitoraggio dei risultati forniti dai modelli di AI;
-
predisponendo adeguati meccanismi di ricorso (per esempio le procedure di presentazione dei reclami) per consentire ai clienti di conoscere quali sono i rimedi in caso di danni causati dall’uso di un modello AI.
2) Governance dei dati
Il sistema di gestione dei rischi deve prevedere politiche per garantire la qualità e la completezza dei dati utilizzati nei processi di sottoscrizione. I dati devono essere accurati e completi (Solvency II, art. 82), mentre i prodotti assicurativi devono essere adeguatamente testati (Regolamento delegato 2017/2358, art. 6).
Tuttavia, secondo l’Autorità europea i modelli AI possono generare incongruenze e non fornire un’analisi dei dati coerente.
Le imprese dovrebbero quindi garantire una gestione solida dei dati utilizzati per addestrare e testare i sistemi di AI documentando l’intero processo.
3) Documentazione e registrazione
Questa raccomandazione trova conferma nell'articolo 9 del Regolamento delegato (UE) 2017/2358, il quale stabilisce che le imprese assicurative hanno l'obbligo di documentare, conservare per fini di audit e mettere a disposizione delle autorità competenti tutte le azioni intraprese nell'ambito del processo di approvazione dei prodotti.
EIOPA quindi chiarisce che le imprese hanno il dovere di conservare e rendere sempre accessibili le registrazioni dei dati utilizzati per l’addestramento, dei test e delle metodologie di modellizzazione.
4) Trasparenza e Coinvolgimento dei Clienti
Oltre a informare le autorità, le imprese devono fornire ai clienti informazioni chiare sui prodotti assicurativi (art. 20(1) IDD).
EIOPA sostiene che le imprese devono garantire la massima trasparenza ai clienti sull’uso dell’AI in tutte quelle decisioni che li riguardano.
Considerando, quindi, il problema della “spiegabilità” di questi sistemi, già evidenziato, sono necessarie misure aggiuntive come il monitoraggio umano attraverso personale preparato e l’impiego di strumenti esplicativi model-agnostic.
Gli intermediari assicurativi, a loro volta, devono essere aggiornati sulle decisioni dei sistemi di IA per adempiere agli obblighi legali verso i clienti.
Il personale che ha il compito di divulgare informazioni, anche a livello promozionale o informativo sui prodotti e i servizi, ha il compito di garantire che queste informazioni siano esatte, coerenti e conformi alle normative.
5) Accuratezza, robustezza e cybersicurezza
Gli operatori del settore devono, inoltre, essere dotati di un sistema di controllo interno efficace, che garantisca sicurezza, integrità e riservatezza delle informazioni (Solvency II (art. 46) e il Regolamento delegato 2015/35 (art. 258).
Le imprese, quindi, devono garantire:
-
l’utilizzo di metriche di prestazione, comprese quelle di equità quando necessario (es. accuratezza, richiamo), adattate al sistema di IA;
-
il monitoraggio continuo al fine di identificare e risolvere tempestivamente problemi come il deterioramento del modello o la degradazione dei dati;
-
la valutazione dei collegamenti con altri sistemi di AI tramite API, poiché possono influenzare sicurezza e prestazioni complessive.
Infine, i sistemi di AI impiegati devono essere resilienti ai potenziali tentativi di alterarne l’uso, i risultati o le prestazioni.
6) Supervisione umana
Le imprese di assicurazione, infine, in conformità con l'art. 46 della Direttiva Solvency II, devono disporre di sistemi interni di controllo efficaci a tutti i livelli. Inoltre, l’articolo 258(2) del Regolamento delegato (UE) 2015/35 richiede che le imprese assicurative sviluppino politiche in materia di controllo interno.
È quindi dovere delle imprese fornire al personale una formazione adeguata, adattata ai rispettivi ruoli e responsabilità, per garantire che la supervisione umana dei sistemi di AI sia efficace.
La supervisione umana, da parte del personale competente, ha il fine di identificare e mitigare i potenziali errori, in linea con la policy dell’impresa. È importante quindi garantire misure adeguate per assicurare che il sistema di AI utilizzato rispetti i diritti dei clienti e operi con elevati standard di sicurezza.
AI e professionisti: verso un nuovo sviluppo organizzativo.
Dal Parere EIOPA emerge come l’uso responsabile dei sistemi di Intelligenza artificiale non può basarsi sull’adozione di una misura isolata ma è il risultato di una combinazione di diverse strategie mirate alla limitazione e gestione dei rischi.
È quindi fondamentale definire un approccio in grado di coinvolgere l’intera organizzazione aziendale.
Ne consegue una nuova strategia di gestione delle diverse aree aziendali dove l’AI, inizialmente vista come una minaccia, si sta invece ponendo come una risorsa per un nuovo sviluppo organizzativo.
Uno strumento che può, si, potenziare le capacità aziendali ma solo se attentamente monitorato e guidato da personale qualificato.
Una previsione che trova conferma anche nel Report di Confindustria 2025, “L’Intelligenza Artificiale per il Sistema Italia”.
L’analisi evidenzia come le diverse aree professionali riescono a trovare nell’intelligenza artificiale un valido supporto per lo svolgimento delle attività meccaniche.
Questi strumenti, quindi, non si stanno affermando come un’alternativa all’essere umano ma come un supporto in grado di liberare il professionista da attività ripetitive consentendogli di concentrarsi su creatività, strategia e capacità decisionali.
Come ha sottolineato anche il professor Marco Galli, docente di Innovazione Tecnologica all’Università di Milano: «L’intelligenza artificiale non sostituisce le persone, ma ne potenzia le competenze cognitive, diventando un alleato prezioso per affrontare sfide sempre più complesse».
Ciò che è certo che stiamo vivendo un’era segnata da una vera e propria rivoluzione, non solo digitale, ma anche culturale e sociale, in cui i modelli AI, se governati con responsabilità, potranno ridefinire in meglio il rapporto tra tecnologia, lavoro e società.