Ett av mina fynd på årets bokrea var Erik Schlossers bok ”Bomben om de amerikanska kärnvapnens historia. Det är en hårresande krönika över obehagliga incidenter: vätebomber har kraschat med flygplan, tappats i havens djup, suttit på toppen av exploderande missiler, brunnit upp och mycket mer. Hittills har ingen kärnvapenexplosion inträffat av misstag, men det har varit väldigt nära.

Bortsett från rysningar av obehag tar jag med mig två lärdomar från ”Bomben”.

För det första: Öppenhet och transparens är viktigt för att tvinga fram säkerhet i system. Det amerikanska flygvapnet motsatte sig till exempel att bygga säkerhetsmekanismer, eftersom det ansågs lägga hinder i vägen för kärnverksamheten, att bomba Sovjetunionen. Därför tog det lång tid innan det ens sattes ordentliga lås på alla kärnvapen. Det var först efter att några spektakulära olyckor kommit till allmänhetens kännedom som säkerhetsåtgärder började prioriteras.

Inget konstigt med det i it-världen, kanske – både den agila rörelsen och öppen källkod vilar ju på öppenhet och transparens – men alltid värt att påminna sig om.

För det andra: komplexa system fallerar förr eller senare. Schlosser hänvisar till sociologen Charles Perrows forskning om komplexa system som går ut på att:

a) komplexa system kommer att gå sönder på oförutsägbara sätt, och ofta på grund av något trivialt (någon tappar en skiftnyckel som slår hål på bränsletanken på din Titan II-missil), och

b) vår förmåga att organisera oss för att förhindra sådana olyckor är nästan alltid otillräcklig.

Att förhindra att en liten incident eskalerar till en stor olycka kräver till exempel ofta ett decentraliserat beslutsfattande, vilket inte alltid rimmar med hur organisationen normalt fungerar. (Stämmer bra på det amerikanska flygvapnet.) Det är alltså bättre att bygga system som inte får katastrofala konsekvenser om de fallerar. Ska du köpa all it från molnet, kanske det är bäst att allt inte kommer från samma leverantör. Till exempel.

Läs mer: Fler krönikor om enterprise architecture

Digitaliseringen medför ökad användning av robotar, drönare, självkörande fordon och andra inbäddade system som om de fallerar kan få riktigt otäcka konsekvenser. Utvecklingen gör att arkitekter utanför branscher som traditionellt jobbat med personsäkerhet snart kommer att behöva designa system som måste vara mycket mer robusta än vad de varit hittills.

Och när de gör det, så kanske lärdomarna från Bombens tidevarv är värda att ta med sig: Var väldigt transparenta i utvecklingsprocessen, och designa så att skadorna inte blir katastrofala när något går riktigt snett. För det kommer det att göra.