L'uso dell'intelligenza artificiale nella finanza è ancora agli inizi, ma deve essere monitorato ed eventualmente regolamentato per evitare danni ai consumatori e garantire il corretto funzionamento dei mercati, ha dichiarato mercoledì la Banca Centrale Europea.

La BCE vede una serie di opportunità dall'uso dell'AI generativa da parte delle banche e di altre istituzioni finanziarie, come un'elaborazione superiore delle informazioni, un servizio clienti più efficiente e persino una maggiore capacità di individuare le minacce informatiche.

Ma ha anche messo in guardia dai rischi, tra cui il comportamento da gregge, l'eccessiva dipendenza da un numero limitato di fornitori e gli attacchi informatici più sofisticati.

"Pertanto, l'implementazione dell'IA nel sistema finanziario deve essere monitorata attentamente man mano che la tecnologia si evolve", ha dichiarato la BCE in un articolo pubblicato nell'ambito della sua regolare Financial Stability Review.

"Inoltre, potrebbe essere necessario prendere in considerazione delle iniziative di regolamentazione se si evidenziano dei fallimenti del mercato che non possono essere affrontati dall'attuale quadro prudenziale". L'Unione Europea ha formulato le prime regole sull'intelligenza artificiale al mondo, che obbligheranno i sistemi di intelligenza artificiale di uso generale e ad alto rischio a rispettare specifici obblighi di trasparenza e le leggi sul copyright dell'UE.

Finora, tuttavia, la BCE ha dichiarato che l'adozione di tali sistemi da parte delle società finanziarie europee è "nelle fasi iniziali".

"I contatti di mercato indicano che le istituzioni finanziarie dell'area dell'euro potrebbero essere più lente nell'adottare l'IA generativa, data la gamma di rischi precedentemente discussi (e) considerando anche i potenziali rischi di reputazione", ha detto la BCE. (Relazione di Francesco Canepa; Redazione di Muralikumar Anantharaman)