I år väntas bankerna lägga runt 5,6 miljarder dollar, nästan 52 miljarder kronor, på AI-lösningar enligt analysföretaget IDC. Och enligt managementkonsulten McKinsey kommer AI att kunna generera över 250 miljarder dollar, drygt 2 300 miljarder kronor, i värde för banksektorn.

Vår amerikanska systertidning CIO.com har samlat ihop exempel på hur finansbolag hanterar AI – här är några av dem.

Effektivisera kundtjänsten
Amerikanska Synchrony sköter kreditkorten åt ett antal stora kedjor som Amazon, Gap och American Eagle. Totalt handlar det om över 80 miljoner kundkonton.

För två år sedan beslutade banken att satsa på AI och har i dag anställt över 170 dataanalytiker. Som på många andra finansbolag så är deras huvudspår chattbottar.

– Vår intelligenta virtuella agent Sydney finns på plats på de flesta av våra handlares sajter, säger Greg Simpson, som är teknikchef och AI-ansvarig på Synchrony.

– Om du har en fråga som rör ditt kreditkort kopplat till något av dessa konton så kan du fråga Sydney och Sydney kommer att svara på de grundläggande frågorna.

Plattformen hanterar i dag runt en halv miljon chattar i månaden och de baseras på flera års svar från företagets callcenter. Den har minskat volymen för livechattar med 50 procent samtidigt som 88 procent av kunderna som använder Sydney säger sig vara nöjda.

Sumitomo Mitsui Banking, ett globalt finansbolag och Japans näst största bank, använder sig av AI på ett liknande sätt. De använder IBM:s Watson för att övervaka konversationer med bankens callcenter och automatiskt känna igen frågor och snabbt hjälpa operatörerna med svar. Det har minskat kostnaden rejält. Enligt bankens direktör Tomohiro Oka handlar det om runt 100 000 dollar om året i besparingar nästan en miljon kronor. Dessutom har kundnöjdheten ökat.

Under senare år har alla större banker haft chattbot-projekt enligt Gartneranalytikern Moutusi Sau. Och de fortsätter att investera men nu börjar de intelligenta bottarna också användas för att öka effektiviteten internt.

Analysera risk
Finansbolag har en lång tradition av att använda sig av statistiska modeller för att utvärdera risker – som kreditrisker i utlåning, finansiella risker i handel och dessutom risken för bedrägerier inom alla områden.

– Det som är annorlunda nu är att användningen av de här algoritmerna är mycket mer omfattande liksom mängden tillgängliga data, typer av data och genomströmningen av data förändrar vilken slags problem som löses, säger Chris Feeney, chef för teknikpolicyavdelningen på Bank Policy Institute i USA.

– Om du kan samla in mer information kring transaktioner så kan du bättre förebygga bedrägerier.

Han tror att AI kommer att vara något som skiljer olika finansbolag åt.

– Du måste vara aktiv, men du måste också välja användningsområde. säger han och föreslår att bolag bör använda AI för att skapa konkurrensfördelar men också för att ge kundvärde.

Bedrägerianalys är ett viktigt användningsområde. Chris Feeney tror att AI kommer att öka förmågan att snabbt upptäcka bedrägerier så att de kan stoppas genom att snabbare upptäcka onormal aktivitet.

En färsk Gartnerundersökning visar att 46 procent av finansbolagen använder AI för att upptäcka bedrägerier.

Inom säkerhetsbranschen används maskininlärning till riskanalys före och efter handel berättar Monica Summerville, chef för fintech på analysföretaget Tabb Group.

– Det är väldigt datorintensivt att göra riskanalyser på traditionellt sätt och mycket maskininlärningsteknik är, även om det bara är uppskattningar, tillräckligt bra och snabbare, säger hon.

Och enligt Gartner så kommer AI att även användas för mer komplexa uppgifter som exempel granskning av finansiella kontrakt. Redan nästa år tror analysföretaget att 20 procent av alla som arbetar backoffice kommer att använda sig av AI när de gör arbete som inte är rutinmässigt.

Svårt att klara regelverket
Tillsynsmyndigheterna känner redan väl till alla de svårigheter som finns med att övervaka de modeller som de finansiella institutionerna använder sig av när de exempelvis ska utvärdera kreditrisker eller upptäcka misstänkta beteenden. Det handlar ofta om väldigt komplexa modeller som är svåra att analysera. Det kan också handla om proprietära modeller från tredjepartsleverantörer.

Det finns sätt att komma åt problemen. Man kan till exempel ha oberoende granskningar av modellerna. Och på en del sätt kan man också behandla dem på samma sätt som statistiska modeller.

AI kommer troligen att presentera en del utmaningar när det gäller möjligheten att förklara slutsatserna konstaterar Lael Brainard som är styrelseledamot på den amerikanska centralbanken Federal Reserve.

– Det gäller att erkänna att det sannolikt finns omständigheter när användningen av ett AI-verktyg är fördelaktigt, även om det kan vara omöjligt att förklara och inte transparent ska AI-verktyget kunna kontrolleras, sa hon i ett tal i höstas.

Det handlar om sådant som att kontrollera hur verktyget är byggt, hur de används i praktiken och också kring datakvalitet och lämplighet anser hon.

Just svårigheten att förklara hur AI kommer fram till en slutsats, ofta kallat ”black-box”-problemet, är något som specifikt rör AI-systemen.

När det gäller traditionella statistiska modeller så kan dataanalytiker manuellt plocka ut faktorer som är avgörande för ett särskilt beslut eller förutsägelse och bestämma hur tungt de olika faktorerna ska väga. Men AI-system kan identifiera mönster som ingen sett innan och som är svåra att greppa.

Det här gör det svårt för banker att leva upp till lagar som kräver att de förklarar vilka faktorer som legat till grund för deras beslut.

– Som tur är kanske AI kan spela en roll för att lösa problemet, säger Lael Brainard och pekar på att AI-branschen arbetar med att utveckla mer transparenta verktyg.

Även för Synchrony har ”black-box”-problemet dykt upp som ett problem eftersom man börjat titta på att börja använda AI för att ta kreditbeslut.

– Vi försöker bygga in förklarbarhet i våra modeller och peka ut vilka skäl som ligger till grund för ett beslut. Men det är inte lätt, säger Greg Simpson.

Och beslut får inte tas på fördomsfulla grunder – som att neka någon ett lån baserat på postnummer. Det är olagligt konstaterar Greg Simpson.

Banken lägger också kraft på att se till att AI-modellerna inte tränas på data som kan bygga in fördomar. Ett sätt att göra det på är att teamet som skapar modellerna har varierande bakgrund.

– Om det inte finns mångfald i teamet är det svårt att identifiera att dina data bygger på fördomar eftersom hela ditt team kan vara fördomsfullt, säger han.

Läs också: Alla pratar om blockchain – men finns det något bakom hajpen?