EconomiaInnovazioneIstituzioniTecnologia

Machine Learning e analisi del rischio: opportunità o insidia?

"Se da un lato il machine learning dovrebbe consentire l’individuazione di schemi e modelli di analisi dati che la mente umana non sarebbe in grado di individuare in modo altrettanto agevole e veloce, dall’altro restano dubbi su alcuni aspetti e criticità derivanti dall’applicazione di questi algoritmi".

Il contributo sul “Machine learning e analisi del rischio” è stato realizzato da Bernardino Salsarone, Corporate Finance Consultant ed esperto di Consulenza Manageriale, Treasury & Credit Consulting, Pianificazione e Controllo di Finward, che ringraziamo per la disponibilità.

Quando si parla di analisi del rischio viene immediatamente da pensare ad una serie di calcoli statistici il cui obiettivo è di definire la probabilità di alcuni eventi negativi e quindi al modo in cui poterli affrontare. Questo tipo di analisi viene quotidianamente applicato nei settori più disparati: quello assicurativo, della medicina, della cybersecurity e ovviamente in quello bancario e finanziario.

Ed è proprio in quest’ultimo ambito, quando si parla di analisi del rischio di credito, che si sta assistendo ad una lenta trasformazione dei modelli tradizionali di valutazione, dove consolidate tecniche di calcolo statistico vengono affiancate da nuovi processi di apprendimento automatico e il giudizio di merito espresso dall’uomo sta per essere sostituito da nuove forme di intelligenza artificiale. Quali sono le opportunità insite in questo epocale cambiamento e quali invece le insidie che si nascondono?

Un passo indietro: come si attribuisce il rating?

Con l’emanazione dei nuovi orientamenti EBA (European Banking Autority ) del 29 maggio 2020 e la loro entrata in vigore a partire dallo scorso 30 giugno, le banche, gli istituti finanziari o generalmente gli “Enti” (così come definiti nel documento ufficiale) si sono trovate a dover nuovamente rivedere tecniche e indicatori di analisi del rischio connessi alla concessione del credito che, in modo meno puntuale e rigoroso, erano già stati introdotti e trattati dai vari accordi di Basilea. Obbligo di ogni istituto bancario nelle fasi di concessione del credito è di attribuire a ciascuna controparte un giudizio sintetico, definito Rating, a cui risulta associata una specifica probabilità di default, cioè la probabilità che la controparte non restituisca il capitale contratto a debito.

Nell’attribuzione del Rating i fattori chiamati in gioco sono di diversa natura, ma possono essere classificati in due distinte categorie. Nella prima troviamo dati che per loro natura risultano statisticamente standardizzabili: fattori andamentali del debitore verso il sistema bancario (come l’analisi dell’utilizzo delle linee di fido rilevabili dalla Centrale Rischi della Banca d’Italia, fattori quantitativi basati su una serie di indicatori patrimoniali, economici e finanziari rinvenibili dai bilanci passati o previsionali,  informazioni anagrafiche come la geolocalizzazione, il sesso e l’occupazione (per le persone fisiche), il fatturato e settore di business (per quelle giuridiche). A queste informazioni sono poi aggiunte una seconda categoria di informazioni qualitative non standardizzabili, ma comunque rilevanti nella definizione del Rating finale del cliente.

Questo ultimo tipo di informazione, non gestibile esclusivamente attraverso puri calcoli matematici, viene trattato attraverso l’intervento di un operatore che “a suo giudizio” definisce e attribuisce gli elementi e i pesi che dovranno essere aggiunti in questo complesso calcolo.

Come entra in gioco il machine learning

Negli ultimi anni per dare maggiore efficacia e velocità ai processi di valutazione del rischio di credito, quando entrano in gioco variabili non statisticamente standardizzabili, si sta cercando di sostituire l’intervento umano con nuovi processi di apprendimento automatico.

L’apprendimento automatico può essere definito con parole semplici come un metodo per insegnare ai computer ad analizzare grandi quantità di dati, imparare da essi ed eseguire delle attività senza richiedere alcuna programmazione basata su regole.

È cosa ormai nota che con l’aggiunta di variabili non strettamente correlate al rischio che si sta valutando, le tecniche di apprendimento automatico o machine learning non vincolato da alcune ipotesi di modelli statistici classici, può fornire informazioni predittive più attendibili rispetto a un sistema statistico tradizionale portando a risultati anche migliori di quelli che un analista umano potrebbe dedurre da quegli stessi dati.

Se però da un lato il machine learning dovrebbe consentire l’individuazione di schemi e modelli di analisi dati che la mente umana non sarebbe in grado di individuare in modo altrettanto agevole e veloce, dall’altro restano dubbi su alcuni aspetti e criticità derivanti dall’applicazione di questi algoritmi.

Il primo problema si identifica in un fenomeno definito di overfitting, cioè di un “sovradattamento” dei dati. In sostanza, a causa di quelli che in statistica computazione vengono definiti outlier o semplicemente casi aberranti, l’intelligenza artificiale individua delle regole non corrette mostrando una falsa relazione tra alcuni attributi e il risultato finale che si vuole raggiungere, fuorviando ovviamente l’intero processo di apprendimento. Per evitare i fenomeni di overfitting è necessaria un’attenta selezione delle variabili fornite alla macchina in fase di apprendimento e procedere con una serie di test di significatività che consentano di validare a posteriori i risultati raggiunti (una delle tecniche di validazione più utilizzate è la cross validation).

Anche eliminando gli effetti dell’overfitting resterebbe comunque un’altra delicata questione. I modelli previsionali derivanti da machine learning sono spesso definiti una scatola nera (black box”): i dati entrano, le decisioni escono, ma i processi tra input e output sono opachi e il modello può diventare molto complesso e diventare talvolta incomprensibile. Ritornando nell’ambito della concessione del credito, in particolare per i soggetti privati, bisogna quindi affrontare un’altra attualissima questione: la tutela e protezione dei dati.

È stato riscontrato che la presenza fortuita di errori di overfitting e associata alla totale mancanza di trasparenza dei modelli decisionali, potrebbe “inconsapevolmente” fuorviare il corretto giudizio verso gli individui esaminati giungendo persino ad uno stato di pregiudizio o discriminazione da parte dell’intelligenza artificiale.

A fronte di questi rischi, l’apparato normativo europeo si è dotato di strumenti utili a contenerne gli effetti negativi. Il nuovo Regolamento Europeo sulla Protezione dei Dati, meglio conosciuto come GDPR, cerca di contrastare proprio la potenziale capacità discriminatoria che algoritmi e decisioni automatizzate possono avere sulle persone fisiche. In particolare, l’articolo 22 del GDPR pur prevedendo delle eccezioni a riguardo, stabilisce come linea di principio generale che le persone fisiche hanno il diritto “di non essere sottoposte a decisioni completamente automatizzate che producano effetti giuridici o incidano in maniera analoga nei loro confronti”.

Tutti coloro che vorranno avvalersi di tecnologia basata su apprendimento automatico non potranno farlo quindi in modo indiscriminato, ma dovranno preoccuparsi di assicurare ai diretti interessati la trasparenza, la correttezza e la liceità del processo tecnologico utilizzato per il raggiungimento di determinate decisioni.

Uno sguardo verso il futuro o rivolto al passato?

La portata dirompente delle tecniche di machine learning è in ogni caso innegabile, così come i risultati e gli obiettivi che nel giro di qualche decennio sarà possibile raggiungere.

Si stima che, su scala mondiale entro il 2030: il contributo all’economia globale derivante dall’applicazione di Intelligenza Artificiale si attesterà intorno ai $ 15,7 Tln; il contributo all’aumento del prodotto interno lordo mondiale derivante da incremento in produttività da lavoro sarà rappresentato per oltre il 55% del contributo derivante da Intelligenza Artificiale; l’adozione delle nuove tecnologie e il conseguente aumento della domanda dei consumatori nei confronti di prodotti evoluti contribuiranno per il 58% sull’aumento del prodotto interno lordo mondiale[2].

La domanda che è lecito porsi a questo punto appare scontata. Difronte agli indiscutibili vantaggi competitivi che il machine learning offre in un mercato globale ormai sempre più digitale e interconnesso, possiamo però dirci veramente pronti a sostituire il giudizio umano con quello artificiale?

Non si tratta del solito paradigma uomo-macchina, ma della concreta volontà di tutte le organizzazioni mondiali, pubbliche e private, di investire su queste tecnologie e sullo studio approfondito di processi decisionali su cui ancora molto abbiamo da comprendere.

Redazione

Questo è lo spazio dedicato ai contenuti redazionali generici di FMag.it.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button