På Googles konferens Cloud Next ’17 i San Francisco i mars visades en privat beta av Cloud Video Intelligence API, som ska hitta relevanta videoklipp där innehållet svarar mot olika sökord.
Google drar också igång en startup-tävling inom maskininlärning och öppnar ett Machine Learning Advanced Soloution Lab i Kalifornien där kunder kan få hjälp av experterer för att tillämpa tekniken på sina egna problem.
Microsoft å sin sida bjuder in företag att testköra en uppsättning AI- och maskininlärningstjänster. Här finns en automatisk modereringstjänst som kan godkänna eller stoppa text, bilder och video och vidarebefordra det den inte klarar av till en mänsklig moderator. Här finns verktyg som kan känna igen ansikten på bilder och de känslor de uttrycker – prova själv här.
Läs också: Stena Line storsatsar på AI: ”en fråga om överlevnad”
Microsofts röstverktyg kommer att fintrimmas för olika regioner och ska även kunna känna igen individuella talare. Nya verktyget QnA Maker ska lära sig utvinna vanliga frågor ur en textkorpus och servera svar på dem till en chattbott.
Detta är några av de senaste landvinningarna inom artificiell intelligens och maskininlärning.
Snarlika exempel finns att hämta hos alla de stora, Amazon och IBM och även Apple. Och en uppsjö startup-företag jobbar med framtidslösningar vi inte ens har sett ännu.
Helt klart är att teskniken lämnat experimentstadiet och blivit allt mer verklig - och att utvecklingen går snabbt nu.
Tidiga försök med AI försökte modellera mänskligt vetande i former som datorer kunde behandla och använda, om än inte ”förstå”. Det var de första textbaserade expertsystemen, och de kunde inget annat än vad människor mödosamt matat dem med i form av uttryckliga regler.
De senaste årens stora framsteg inom AI har handlat om att maskiner lär av sina erfarenheter. Framsteg inom maskininlärning har lett raka vägen till att 18-faldige världsmästaren i go, Lee Sedol, fick stryk av Alphago, en mjukvara från Googles dotterbolag Deepmind.
Maskininlärningens tidevarv började när vi tog fram de första neuralnäten – datoriserade modeller av hur nervceller (neuron) skickar runt information sinsemellan. En människohjärna innhåller ungefär 100 miljarder neuron, och vart och ett är kopplat till ungefär ettusen andra.
Ett konstgjort neuralnät modellerar ett antal sådana celler. Varje cell tar emot indata, utför några enkla beräkningar på dessa, och skickar resultatet vidare som utdata. Cellerna är organiserade i olika lager, där varje lager tar indata från föregående och skickar utdata vidare till nästa. När nätverket lyckas lösa ett problem viktar det upp de neuron som spådde rätt resultat – och på så sätt lär sig nätverket hela tiden.
Nätverk med många lager, så kallade djupa neuralnät, kan vara mer träffsäkra. Men de kostar mer datakraft, för mycket för de flesta än så länge. Om det inte varit för att spelgrafikkorten har blivit så bra på parallell databehandling skulle de här näten vara kvar i forskningslabbet.
”Livet börjar vid en miljard exempel”
De här framstegen ger nya möjligheter att hantera big data-problem. Men att ta fram sådan här artificiell intelligens är i viss mån ett big data-problem i sig.
– En av våra styrkor som männniskor är att vi kan dra erfarenhet av bara ett litet fåtal exempel, sade Googles Ray Kurzweil på Cebit-mässan i mars.
– Om din bättre hälft eller chefen säger åt dig en eller två gånger, då lär du dig troligen av det. Det är en styrka med den mänskliga intelligensen, sade han.
Läs också: Så jobbar Sandvik, Svevia och Mysafety med AI
Men inom djupinlärning pratar man om att ”livet börjar vid en miljard exempel”. Djupa neuralnät behöver se en uppgift en miljard gånger innan de kan utföra den bättre än människor.
Det är ett problem i sig att få tag i en miljard exempel på något. Utvecklarna bakom Alphago hittade protokoll över tusentals go-partier på internet. På det materialet fick deras 13 lager djupa neuralnät börja träna. Men sedan var de hänvisade till att låta nätverket spela mot andra versioner av sig självt för att generera nya data.
Tre slags maskininlärning
På sin väg till segern drog Alphago nytta av två slags maskininlärning. De partier som människor hade spelat analyserades med så kallad övervakad inlärning, där indata taggas upp med vad neuralnätet ska lära sig av dem. I det här fallet fick nätet veta att si- och sådana drag i olika fall hade lett till seger.
Men när Alphago sedan fick spela mot sig självt användes en annan teknik som heter förstärkningsinlärning (reinforcement learning). Målet var fortfarande tydligt – att vinna enligt spelets regler – men det fanns inga indata. Alphago fick generera och utvärdera sådana på egen hand, med hjälp av ett andra neuralnät, där neuronerna började med samma viktningar som efter den övervakade inlärningen, men gradvis modifierade sig självt allt eftersom det upptäckte övermänsklig strategi.
Det finns också en tredje variant av maskininlärning som kallas oövervaknad inlärning. Den är inte så användbar i spel, men desto mer användbar i näringslivet. Här får neuralnätet inte veta något alls om målet, utan lämnas att utforska data på egen hand. Det grupperar data i kategorier och hittar samband mellan dem.
När den används på det viset blir maskininlärning bara att nytt analysverktyg: Det kanske kan upptäcka att ett spel kan spelas eller sluta på olika sätt, men bedömningen om vad som ska göras lämnas åt människan.
Giganterna går i täten
Det är ingen slump att det är Google, Facebook, Amazon, Apple och Microsoft som ligger i framkanten inom AI, maskininlärning och big data-hantering och chattbotts. Varje sökresultat vi klickar på, varje foto vi taggar, läggs till högen för vidare analys och inlärning.
En miljard exempel är inte alltid nödvändigt. Vissa saker kan datorer lära sig göra nästan lika bra som människor utifrån mindre data än så, särskilt om datorn kan slussa de svåraste fallen vidare till en mänsklig kollega.
Det är i alla fall det många räknar med när de idag bygger chattbottar med AI. De har färre datapunkter att gå på, men de hoppas ändå att tjänster som Microsofts QnA Maker ska kunna hjälpa dem med kundservice.
Ett exempel är Arthritis Research UK, en välgörenhetsorganisation som bekostar studier av ledbesvär och ger råd till patienter. De använder IBM:s Watson Conversation API för att bygga botten Arthy som ska svara på frågor om ledvärk och ge råd om sjukgymnastik för att lindra symptomen.
Målen är två: att avlasta den befintliga telefonjouren och att ta fram en ny kanal som ska kunna användas till andra tjänster i framtiden. Arthy har redan lärt sig svara på ettusen vanliga frågor om 50 olika ledbesvär.
– Vi kommer att utöka med information om läkemedel, kirurgi och även kostråd vad det lider, säger Shree Rajani, kampanjchef på Arthritis Research UK.
Efter fem månaders utveckling, inklusive en första testrunda med ungefär 300 försöksanvändare, är Arthy ännu inte redo för allmänheten. En andra testrunda är på gång, och Arthy borde vara uppe på webben senare i år, enligt Rajani.
Utmaning att hantera personuppgifter
Arthritis Research UK:s policydokument säger en hel del om utmaningarna för europiska företag som använder amerikanska molntjänster för sina chattbottar. Hundratals ord går åt till att varna för att allt användarna berättar för Arthy förs över till servrar i USA, och att de därför ska vara försiktiga med sin personliga information – en svår balansgång när det hela kanske gäller medicinska frågor.
Personuppgiftshanteringen kan bli en ännu viktigare fråga för en annan sektor som skyndsamt anammar maskininlärning för sin kundtjänst, nämligen bankerna.
Läs också: Nu är det dags: förbered ditt företag för robotrevolutionen
En studie från Accenture visar att hela 78 procent av USA:s banker räknar med att AI ska göra automatiska system mer människoliknande inom tre år, och 76 procent tror att de kommer att konkurrera om vem som kan göra tekniken mest osynlig för kunden.
Ladda ner nytt kompendium om AI i din tjänst. Artificiell Intelligens gör nu på allvar sitt intåg på företagen. Vi fördjupar oss i det högaktuella temat. Läs mer.