DOVE LA MENTE NON ARRIVA

Compagnie assicurative e imprese calcolano il rischio senza una valutazione accurata di quello che può essere considerato l’imprevisto. I sistemi di intelligenza assistita possono sostenere l’indagine umana più di quanto possano fare le macchine che apprendono, le quali, basandosi su dati storici, non riescono a prevedere minacce marginali ma a elevato impatto

DOVE LA MENTE NON ARRIVA
Il Safety Forum organizzato da Eurocontrol, organizzazione intergovernativa civile e militare per la sicurezza della navigazione aerea, è stato l’occasione per discutere di una diversa capacità previsionale del rischio. Il tema era quello delle incursioni in pista, molto sentito a livello internazionale. 

Sono stati analizzati le fasi di decollo e i possibili scenari che si possono verificare nel periodo che intercorre tra l’imbarco dei passeggeri e l’entrata in pista del velivolo.
Le variabili sono moltissime, tanto che solo per il decollo sono state identificate circa otto milioni di possibili situazioni. L’analisi ha permesso di scoprire che lo scenario nominale, cioè quello disegnato in procedura, si verifica in realtà solo nel 20 per cento dei casi. In tutti gli altri casi intervengono adattamenti del sistema, che riesce comunque a intervenire positivamente adattandosi e correggendo le proprie défaillance. Si è visto quindi che lo spazio di miglioramento in tema di incursioni in pista è ampio, e che il sistema è molto complesso e va ottimizzato, ovviamente se tale sforzo sarà ritenuto utile nell’economia complessiva dalle parti interessate.
Quanto riportato è un esempio utile a comprendere perché oggi sia necessario ingegnerizzare il rischio passando da un approccio quali-quantitativo a uno quantitativo e percorribile con maggiore qualità da tutti coloro che prendono parte al processo.

CALCOLARE L’IMPREVISTO

Una volta identificate le possibili criticità (indipendentemente dal tipo di approccio) si cercano soluzioni che si pensa servano a mitigarne il rischio. In una visione olistica, però, non è detto che le determinazioni attuate riducano realmente le minacce e nella misura che interessa. Gli strumenti attuali non sono sufficienti per fornire verifiche attendibili e, presupposto che tutte le soluzioni possibili siano mitigative, per conoscere quali risultano più efficaci in termini di costo/beneficio. Serve quindi un passo ulteriore per meglio ingegnerizzare il rischio. 
Le compagnie assicurative valutano per prima cosa il danno, tipicamente sulla base di un numero di scenari molto ridotto, in genere quelli dettati dall’evidenza empirica (oltre che dalla capacità di analisi). Quest’approccio non consente di analizzare scenari (stocasticamente) remoti, rendendo le coperture parzialmente insufficienti.
La crescente complessità dei sistemi moderni richiede capacità di rilevazione molto elevata, non raggiungibile dalla mente umana: delegare alla macchina permette di ottenere quella capacità di previsione che l’uomo non è in grado di raggiungere, riservandosi il compito di lavorare poi sugli scenari.
L’uso del calcolo aiuta infatti a identificare tutti i possibili scenari: tra tutti e quasi tutti la differenza è sostanziale, perché il peso (in termini di danno generato) degli scenari più remoti (quelli a probabilità di accadimento molto bassa) può essere molto elevato. Mettere in evidenza la percentuale marginale può aiutare a prevenire danni superiori. 


© metamorworks – iStock

MACHINE LEARNING VS COGNITIVE COMPUTING

L’uso dell’intelligenza assistita può fornire un supporto in questo senso. Le macchine che apprendono (machine learning) necessitano di base dati storiche: quando giungono nuove informazioni la macchina apprende e aumenta la sua capacità di evitare quella tipologia di rischi (come, ad esempio, nei sistemi a guida autonoma in cui è la macchina che decide). Il limite di quest’approccio è che la macchina deve necessariamente passare attraverso un errore (che non era stato previsto dall’algoritmo). L’intelligenza assistita (cognitive computing), per contro, è guidata dalla capacità di anticipazione umana che non richiede necessariamente un errore per essere in grado di prevenire i rischi, bensì una capacità modellazione logica.
Un sistema di intelligenza assistita permette quindi di effettuare previsioni andando oltre l’evidenza empirica, valorizzando (anche) l’esperienza e la competenza di chi quel rischio conosce. 

IL PASSATO NON PUÒ ESSERE IL FUTURO 

Le macchine che apprendono si basano su dati storici, partono, cioè, da quanto è già avvenuto e non possono prendere in considerazione altre eventualità. Il paradigma delle macchine che apprendono è quindi quello che il futuro si presenterà nello stesso modo del passato, escludendo ogni eventualità che non si sia ancora manifestata.
L’anticipazione e la modellazione logica, per contro, forniscono invece degli elementi nuovi e non storici, ma possibili, che possono essere trattati dall’algoritmo nel calcolare il rischio (cioè nel generare la previsione). La logica artificiale, quindi, può assistere l’intelligenza umana, consentendo di effettuare previsioni che siano in grado di anticipare quello che potrebbe accadere e non semplicemente evitare che non si ripeta qualcosa che è già successo: è questo il cambio di paradigma nell’ingegneria del rischio. Si tratta di un’attività che va in affiancamento ai sistemi di machine learning e che si basa sulla capacità anticipatoria dell’uomo che non necessita di una quantità di dati storici statisticamente rilevante. In questo modo si valorizza maggiormente l’esperienza delle persone, dalle quali si raccolgono non solo dati, ma il valore qualitativo delle conoscenze sedimentate.

Con questo progetto, Symlogik ha partecipato al RegTech Challenge organizzato per le startup del settore da Deloitte Emea Risk Advisory, in cui è giunta al terzo posto su 41 società partecipanti.

© RIPRODUZIONE RISERVATA

Articoli correlati

I più visti