Oavsett om man rör sig i konsultvärlden, i det akademiska eller i branschanalytikernas värld så är det svårt att undgå den rådande hajpen kring ”prescriptive analytics”. Som svensk får jag nöja mig med en översättning till ”ordinerande analys”, vilket inte helt fångar det ursprungliga begreppet, men nära nog.

Ordinerande analys är den tredje fasen i analys­utvecklingen, och enligt många den sista (?). Först kom beskrivande analys, sedan förutsägande analys och nu har den alltså blivit även ordinerande. Som när du får en viss medicin utskriven hos läkaren kan du nu lugnt luta dig tillbaka och göra som analysen ordinerar för att lösa det diagnosticerade problemet.

I alla fall i teorin. Även om de flesta leverantörer med självaktning givetvis erbjuder ordinerande analys i produktportföljen så är användningen fortfarande liten. Listan med företag som valt att investera – jag utgår från att det varit ett aktivt val, och inte resultatet av någon ordinerande analys – är fortfarande kort.

Min ursprungliga tanke kring denna teknik har varit att koppla den bakåt till tidigare ambitioner inom teknik­användning.

Under slutet av 1960-talet var professor John Dearden vid Harvard Business School en uppseendeväckande kritiker av dylika strömningar, och han såg automati­seringen av just chefsmässigt beslutsfattande som i praktiken omöjlig. Tyvärr måste jag medge att dagens tekniska och informationsmässiga förutsättningar inte riktigt fanns på radarn under John Deardens 60-tal. När 90 procent av alla tillgängliga data skapats de senaste två åren (för att släppa fram en så kallad faktoid), när vi har in-memory-teknik och helt fantastiska algoritmer kanske den ordinerande analysen faktiskt nu äntligen är möjlig?

När jag utbildar chefer brukar jag låta dem gå igenom ett litet test, som jag lånat av professor Frank Bannister från Trinity College. Deltagarna får svara på tio frågor, som är av allmänbildningskaraktär, men svåra nog för att ingen ska kunna svara rätt på dem. En fråga kan vara till exempel vilket år blindskriften braille introducerades. Deltagarna får svara dels med ett exakt årtal (de kanske gissar på 1902), dels med ett spann där de känner sig 95 procent säkra på att ha rätt (de kanske gissar på mellan 1840 och 1920). 
När jag gått igenom svaren brukar jag undersöka hur många rätt deltagarna har när de tyckte sig ha 95 procents säkerhet. Tanken, som ni säkert redan förstått, är att visa på skillnad mellan deltagarnas upplevda koll och deras faktiska koll. Jag har kört upp­giften i några år, och än så länge har inte snittet varit mer än två rätt av tio. Vi verkar konsekvent överskatta vår egen förmåga att fatta bra beslut.

Då kanske det inte är så farligt med lite automatisering av ordinering? Det kanske är så att vi skulle kunna få bort åtminstone en del av alla de felaktiga beslut som fattas inom ramen för en verksamhet ...

Frågan som återstår är då på vilka frågor det skulle kunna vara lämpligt att tillämpa denna analysskapelsens krona. Är det de ofta återkommande besluten med låg grad av komplexitet? De sällan återkommande besluten med hög grad av komplexitet? Är detta något som nödvändigtvis måste gå hand i hand med användningen av ostrukturerade data, eller skulle vi kunna tillämpa det på beslut där vi klarar oss väl med strukturerade data?

Jag ser framtiden an med spänd förväntan. Jag längtar efter att få se några riktigt roliga fall av ordinerande analys, i praktiken. Vem vet – det kanske faktiskt är så att vi är mogna att släppa kon­trollen över just ordinationsfasen? Att våga lita på besluts­roboten, luta sig tillbaka i sjukhussängen, svälja och tacka.