Generali Group

          dove siamo

                                 

          28 ottobre 2022 - 15:00

          Intelligenza artificiale e settore assicurativo

          Un approccio etico all’AI è fondamentale nella progettazione, nello sviluppo e nell’uso di dati e algoritmi per massimizzare la creazione di valore sostenibile e ridurre al minimo i rischi per gli individui e la società. Una priorità nella strategia di Generali, per rafforzare la propria ambizione di essere Partner di Vita

          Da quando è stata inventata, l’intelligenza artificiale (AI) sta avendo un impatto crescente all’interno della nostra società sempre più interconnessa. La tecnologia può essere applicata a molti settori e industrie diverse: è il caso, ad esempio, dell’ambito sanitario, dove viene utilizzata per dosare farmaci e distribuire diversi trattamenti su misura per pazienti specifici e per sostenere le procedure chirurgiche in sala operatoria.
           
          Ma l'intelligenza artificiale ha applicazioni anche nel settore finanziario, dove viene utilizzata per rilevare e segnalare attività sospette, come l'uso insolito di strumenti di pagamento ed investimento, facilitando così il lavoro dei dipartimenti antifrode. Le applicazioni per l'AI vengono utilizzate anche per facilitare le operazioni di trading, semplificando ad esempio la stima dell'offerta, della domanda e del prezzo dei titoli.


          Insomma, l’intelligenza artificiale promette numerosi vantaggi – ad esempio in termini di rapidità, efficienza e precisione – grazie all’utilizzo evoluto di dati e algoritmi. L'opinione pubblica, al giorno d’oggi, ne è sempre più consapevole; ma è al contempo sempre più informata rispetto ai potenziali rischi connessi all’utilizzo di queste tecnologie in ambiti sempre più numerosi del lavoro e della vita quotidiana, in particolare l’eccessiva pervasività di dati e algoritmi e le distorsioni che ne possono derivare. 

          Un esempio, in tal senso, è offerto dai cosiddetti bias o distorsioni da macchina, vale a dire l'effetto di assunzioni errate nei processi di apprendimento automatici degli algoritmi. Tali distorsioni riflettono i problemi legati alla raccolta o all'uso dei dati, in cui i sistemi traggono conclusioni improprie sui set di informazioni, sia a causa dell'intervento umano sia a causa della mancanza di valutazione cognitiva dei dati. 

          Un caso concreto è offerto da uno studio del dicembre 2020 dal titolo “Investigating Bias in Image Classification using Model Explanations”, che mostra come dati raccolti in modo distorto possano portare a risultati di classificazione altrettanto distorti. Gli autori dello studio hanno collezionato un set di immagini per distinguere quelle di “medici” da quelle di “infermieri”, testando diverse percentuali di uomini e donne nelle due categorie al fine di rilevare il loro impatto sulle prestazioni dell’algoritmo. In questo caso, un modello distorto predice "infermiera" quando il soggetto è una donna, "dottore" quando è un uomo, senza guardare le caratteristiche reali che dovrebbero essere utilizzate nella rilevazione (ad esempio la tipologia di camice o la presenza dello stetoscopio). 

          Alla luce di questi casi, risulta pertanto di fondamentale importanza adottare un approccio etico all'intelligenza artificiale, che riguardi l'uso responsabile e la condivisione di dati e algoritmi al di là degli obblighi legali per massimizzare la creazione di valore sostenibile e ridurre al minimo i rischi per gli individui e la società.
           

          L’AI nel panorama assicurativo

           

          Nel settore delle assicurazioni, i sistemi di intelligenza artificiale vengono utilizzati con crescente frequenza per fornire prodotti e servizi sempre più personalizzati, accurati e a prezzi competitivi: dalla protezione della salute e della vita, alla definizione dei premi, fino alla sottoscrizione e valutazione dei sinistri. Se non adeguatamente progettati, sviluppati e utilizzati, i sistemi di intelligenza artificiale possono però portare a rilevanti rischi per la vita delle persone, tra cui l'esclusione finanziaria e la discriminazione. Ad esempio, l'AI è in grado di decidere correttamente chi deve riceve o meno prodotti e servizi assicurativi, o di rendere trasparente agli utenti finali il processo decisionale che li coinvolge?  Esistono dunque rischi specifici e “dilemmi” etici ai quali Generali risponde da tempo cercando di massimizzare la trasparenza dei propri algoritmi e prevedendo la supervisione umana per le applicazioni più delicate.

          Nel frattempo le autorità di regolamentazione iniziano a muoversi al fine di definire standard e controlli per l'uso dell'AI, con impatti significativi anche sull’ambito assicurativo: è il caso, ad esempio, dell’European Regulation on Artificial Intelligence (“AI Act”), proposto dalla Commissione Europea nell'aprile 2021 e la cui approvazione è attesa per il 2023. Il pacchetto AI Act comprende una serie di nuovi obblighi relativi a:

          • valutazione dei rischi derivanti dall’uso dell’AI 
          • controllo e monitoraggio degli algoritmi
          • trasparenza verso i clienti 


          L’obiettivo è quello di promuovere uno sviluppo responsabile dell’AI e di rafforzare il potenziale competitivo dell'Europa a livello globale, permettendo la massimizzazione delle risorse e il coordinamento degli investimenti. Attraverso i programmi Digital Europe e Horizon Europe, la Commissione prevede infatti di investire 1 miliardo di euro all'anno nell'AI, mobilitando ulteriori investimenti dal settore privato e dagli Stati membri al fine di raggiungere un volume di investimenti annuali di 20 miliardi di euro nel corso del decennio digitale.
           

          La strategia di Generali e l’iniziativa Trustworthy AI


          Generali accoglie con favore questo cambiamento storico considerandolo un'opportunità per rafforzare la propria strategia Lifetime Partner 24: Driving Growth grazie all’integrazione dei propri valori etici fondamentali nelle nuove strategie dei nativi digitali. L’obiettivo del Gruppo è di:

          • aumentare la propria affidabilità digitale, creando così un vantaggio competitivo distintivo; 
          • rafforzare la propria ambizione di essere Partner di Vita per i propri clienti;
          • mitigare il rischio etico, reputazionale e finanziario (ad esempio la mancanza di trasparenza e interpretabilità dei sistemi di AI o le distorsioni e le discriminazioni non intenzionali nascoste nel processo decisionale dei sistemi di AI). 


          Generali sostiene inoltre l’adozione del nuovo paradigma “AI affidabile”, una combinazione di quadri legislativi, principi tecnico-etici, tecniche di analisi avanzate e trasformazioni organizzative che cambieranno profondamente l'attuale modo di sviluppare e applicare l'AI, e collabora con le autorità di regolamentazione e le associazioni industriali per migliorare le proposte legislative sulle tecnologie digitali facendo leva sulla propria competenza tecnica ed esperienza aziendale. 

          In quest’ottica rientra, ad esempio, l’iniziativa Trustworthy AI, che si propone di garantire un uso responsabile di dati e algoritmi per meritare la piena fiducia digitale dei clienti, portando a un vantaggio competitivo sostenibile e rafforzando l’ambizione di essere Partner di Vita. Alla base della strategia di Generali c’è poi l’idea di fornire delle linee guida e di sviluppare degli algoritmi in grado di evitare i rischi e di assicurare la trasparenza di tutti i processi, facendo in modo che ci sia sempre un controllo umano sulle attività e sulle decisioni più delicate.