Tempo di lettura: 5min

Sicurezza e protezione dati, quel rischio ignorato dalle SGR

7/2/2022

Le SGR fanno un uso sempre più importante di sistemi di IA per gestire i fondi. Ma tante le differenze tra Ucits tradizionali, FIA e fondi ESG. E quando si parla di rischi ecco cosa viene sottovalutato.


Lo sviluppo di sistemi di Intelligenza Artificiale (IA) rappresenta una priorità strategica o diventerà tale in un prossimo futuro. Ad affermarlo sono le società di gestione del risparmio che hanno partecipato alla survey realizzata dalla Consob in collaborazione con Assogestioni e riportata nel Quaderno Fintech “L’intelligenza artificiale nell’asset e nel wealth management”, che analizza i benefici e i rischi che l’IA ha e potrebbe avere sul mondo del risparmio gestito. 

 

“Nella quasi totalità dei casi, ricerca, sviluppo e diffusione di sistemi di IA sono parte di una generale strategia di innovazione tecnologica; solo in un caso è stata definita una strategia dedicata” si legge nel documento dal quale emerge che l’importanza dello sviluppo di sistemi di IA quale obiettivo strategico si poggia su diverse motivazioni, tra cui le più frequentemente indicate riguardano: “lo sviluppo di strategie di gestione innovative; il mantenimento della propria posizione competitiva; l’incremento dell’efficienza operativa. Anche il miglioramento delle performance dei processi di investimento e il rafforzamento dell’azione di compliance risultano motivazioni rilevanti, mentre sono ritenuti meno importanti il miglioramento della gestione dei rischi, l’aumento della redditività e la necessità di stare al passo con gli sviluppi tecnologici”.

 

Ma per quali prodotti/servizi i sistemi di IA sono ritenuti più importanti? Secondo le SGR che hanno partecipato alla survey e che gestiscono il 60% del patrimonio complessivo del mercato italiano, nella maggior parte dei casi tali sistemi sono utili per la gestione di fondi UCITs e per l’offerta di servizi di consulenza in materia di investimenti. Risulta invece meno diffusa l’applicazione alla gestione di portafoglio su base individuale e di fondi di investimento alternativi e alla gestione di fondi pensione aperti. “La maggior parte delle società ritiene che l’utilizzo di sistemi di IA non sia più utile nell’ambito della gestione di fondi alternativi (FIA) rispetto ai fondi UCITs” si legge nel documento firmato da N. Linciano, V. Caivano, D. Costa, P. Soccorso, T.N. Poli, G. Trovatore. Alcune Sgr ritengono, inoltre, che tali tecnologie siano meno utili nella gestione di fondi alternativi e motivano tale opinione “facendo riferimento alla minore disponibilità di dati relativi a mercati privati rispetto ai mercati quotati ovvero al fatto che la gestione di FIA richiede al momento analisi basate su un intenso coinvolgimento umano”.

 

La tecnologia diventa invece centrale per la gestione di fondi ESG. Praticamente tutte le società coinvolte nella survey dichiarano un utilizzo in quell’ambito, ma solo una piccola parte afferma di applicare “le nuove tecnologie nell’ambito degli investimenti sostenibili, in particolare per la verifica e l’analisi dei dati e delle informazioni contenuti nella rendicontazione di sostenibilità pubblicata dalle società, e per la verifica della coerenza degli investimenti rispetto alla strategia volta all’integrazione dei fattori ESG nella propria politica di investimento”. La metà delle società rispondenti alla survey ritiene che “i sistemi di IA possano assicurare la coerenza delle scelte di investimento con la politica del fondo sebbene non in piena autonomia, poiché il controllo umano è ritenuto necessario”. 

 

Al di là dell’ambito di applicazione quale sono però i benefici e i rischi derivanti dall’utilizzo di tecnologie di IA percepiti dalle società? “La maggior parte delle rispondenti ritiene che i benefici possano essere pienamente apprezzati sin dalle prime fasi di applicazione di tali tecnologie o al massimo entro tre anni, mentre tre società ritengono che sia necessario un arco temporale più lungo” si legge nel documento. “La quasi totalità delle Sgr identifica i benefici nel mantenimento o innalzamento della propria posizione competitiva e nel miglioramento delle performance del processo di investimento; la maggioranza menziona l’incremento dell’efficienza operativa e il contributo allo sviluppo di strategie di gestione innovative; più della metà indica il rafforzamento dell’azione di compliance e la metà menziona il miglioramento dei processi di gestione del rischio”.

 

E per quanto riguarda i rischi? “Tra i rischi più rilevanti derivanti dall’utilizzo dei sistemi di IA nell’asset management tutti i partecipanti all’indagine indicano la scarsa comprensibilità degli output e/o degli algoritmi, mentre la metà del campione segnala l’inadeguatezza di controlli, convalide o monitoraggio. Tra i rischi potenziali, inoltre, tre società evidenziano la presenza di distorsioni nei dati e negli algoritmi. Sono invece meno avvertiti i rischi collegati a scarse prestazioni del sistema di IA con ricadute su processi decisionali e reputazione, e il rischio di carente o inappropriata identificazione dei responsabili di una decisione, azione o strategia generata da sistemi di IA” spiegano gli autori del volume diffuso dalla Consob che infine sottolineano come “nessuna rispondente” abbia indicato “quale fonte di rischio la difficoltà di garantire una adeguata protezione dei dati e la sicurezza”.

 

Un ambito che invece rimane al centro della valutazione dei regolatori e dei legislatori. Valutazioni che si scontrano con la difficoltà di riuscire a mantenere il passo con le rapide evoluzioni della tecnologia: “Anzitutto, l’intelligenza artificiale è difficilmente comprensibile e la relativa disciplina diviene immediatamente obsoleta per i rapidi progressi della tecnica, di fronte ai quali le scienze sociali e il diritto faticano ad adeguarsi” si legge nel documento che si chiude con una riflessione fondamentale sulla responsabilità del mondo dell’asset e del wealth management.

 

“Un ultimo profilo da tenere in considerazione riguarda la responsabilità per i danni provocati dai sistemi di intelligenza artificiale” si legge nelle pagine conclusive. “Sviluppare una disciplina di carattere unicamente preventivo e oppositivo senza una contestuale declinazione di profili di enforcement potrebbe determinare una cornice regolamentare non esattamente proporzionata ai rischi e alla rilevanza dei rischi per la tutela dei diritti e delle libertà fondamentali. In definitiva, sia che si riescano o meno a programmare ‘comportamenti etici’ dell’algoritmo, sia che si arrivi a riconoscere uno status giuridico specifico o una personalità elettronica ai robot più sofisticati, al momento il ‘fattore umano’, nel monitorare i processi algoritmici assumendosi la responsabilità finale dei processi di supervisione, sembra essere ancora il presidio più efficace ed etico per la protezione dei diritti, inclusi quelli dei risparmiatori”.

 

 

Photo by Luis Villasmil on Unsplash

Condividi

Seguici sui social

Advisor è la prima piattaforma interamente dedicata alla consulenza patrimoniale e al risparmio gestito con oltre 38.000 professionisti già iscritti


Accedi a funzionalità esclusive e migliora la tua esperienza di navigazione


  • Leggi articoli esclusivi
  • Salva le tue news preferite
  • Partecipa ad eventi esclusivi
  • Sfoglia i magazine in anteprima

Iscriviti oggi!

Hai già un profilo? Accedi qui

Cerchi qualcosa in particolare?