L’UE PROVA A REGOLAMENTARE L’INTELLIGENZA ARTIFICIALE

Lo scorso 21 aprile la Commissione Europea ha pubblicato una proposta di regolamento sull’AI che, definendo diversi livelli di rischio, punta a contrastare tutti quegli utilizzi che possono costituire una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone. Ecco cosa prevede

L’UE PROVA A REGOLAMENTARE L’INTELLIGENZA ARTIFICIALE
Garantire all’Ue di acquisire e preservare una leadership tecnologica, assicurandosi però che i cittadini europei possano beneficiare delle nuove tecnologie di intelligenza artificiale, senza rinunciare a quei valori e principi che caratterizzano il sistema giuridico comune. Questo il principale obiettivo della proposta di regolamento sull’intelligenza artificiale, pubblicato lo scorso 21 aprile dalla Commissione  Europea, e che punta a contrastare tutti gli utilizzi di questa innovativa tecnologia che, come si legge in una nota di Bruxelles, possano costituire “una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”. 
L’ambito di applicazione del regolamento riflette questi obiettivi: il regolamento si applica all’immissione sul mercato, alla messa in servizio e all’uso di sistemi di intelligenza artificiale. Questi ultimi sono definiti in maniera piuttosto ampia dal regolamento come software, sviluppati con tecniche specificamente elencate dal regolamento stesso, che siano in grado di generare contenuti, previsioni, decisioni o raccomandazioni in grado di influenzare l’ambiente con cui interagiscono.

L’INTERESSE DEL SETTORE ASSICURATIVO

A guardare con attenzione a quanto sarà definito dal legislatore europeo è ovviamente anche il settore assicurativo, che sta facendo un utilizzo crescente di queste tecnologie. Gli avvocati Stefano Micheli e Francesco Faccendini dello studio BonelliErede in un interessante articolo pubblicato sul numero scorso di Insurance Review, hanno ricordato che strumenti come l’intelligenza artificiale o il machine learning sono già utilizzati dal 31% delle imprese assicurative europee, mentre un altro 24% si trova in una fase di proof-of-concept nell’uso di tali sistemi informatici (dati Eiopa). Micheli e Faccendini hanno inoltre sottolineato che il maggior utilizzo dell’AI ha attirato l’attenzione anche dell’Ivass che, in un’ottica di tutela dei contraenti e controllo/vigilanza sugli operatori, ha preso parte al Comitato Fintech presso il Mef, e ha costituito un proprio Innovation hub quale punto di contatto per i soggetti interessati a discutere di tematiche legate all’innovazione nel settore assicurativo e ai risvolti regolamentari, di vigilanza prudenziale, di condotta e di analisi del mercato. 



LE DIVERSE CLASSIFICAZIONI DEL RISCHIO

Entrando più nello specifico, la proposta della Commissione Ue suddivide i possibili utilizzi dell’intelligenza artificiale sulla base di diversi livelli di rischio: basso, medio o elevato. Al livello massimo, definito “inaccettabile”, si collocano usi che possono rappresentare una minaccia evidente alla sicurezza e ai diritti delle persone. È il caso, per esempio, di dispositivi di sorveglianza di massa, di sistemi di social scoring o applicazioni in grado di “manipolare le persone attraverso tecniche subliminali” o di sfruttare le vulnerabilità di soggetti particolarmente fragili, come bambini o disabili: tutti questi utilizzi saranno completamente vietati nel territorio dell’Unione Europea. “Non c’è spazio per la sorveglianza di massa nella nostra società”, ha commentato Margrethe Vestager, vice presidente della Commissione e commissaria alla concorrenza. 
Tuttavia, la gran parte dei requisiti del regolamento riguardano solo determinati sistemi di intelligenza artificiale considerati “ad alto rischio”, che si collocano al di sotto del livello massimo: si tratta di dispositivi non vietati in maniera netta ma comunque soggetti a una valutazione rigorosissima per garantire la tutela dei cittadini. Ne fanno parte, per esempio, sistemi di riconoscimento facciale, messi “in linea di principio” al bando ma utilizzabili in situazioni di particolare emergenza per scopi specifici, previo via libera di un organo giudiziario, come la lotta al terrorismo o la ricerca di un minore scomparso. Chiudono la classificazione le tecnologie a basso rischio, che rappresentano la maggior parte degli attuali utilizzi dell’AI: ne fanno parte chatbot, assistenti vocali, sistemi di raccomandazione, filtri anti-spam e videogiochi sviluppati con sistemi di intelligenza artificiale.
La supervisione sugli utilizzi dell’intelligenza artificiale, come ha specificato Bruxelles, sarà molto rigorosa. Le violazioni saranno punite con sanzioni fino a 30 milioni di euro o, nel caso in cui si tratti di aziende, fino al 6% del fatturato complessivo.

© RIPRODUZIONE RISERVATA

Articoli correlati

I più visti