Mer än 1000 teknologer och forskare har undertecknat ett öppet brev från avsändaren ”the Future Life Institute”, en forskningsorganisation som drivs av frivilliga, och som arbetar för att minimera de risker som hotar mänskligheten. I brevet uppmanas forskare som arbetar med artificiell intelligens och smarta maskiner att fokusera på att utveckla system som är robusta och användbara för mänskligheten.

- Eftersom det finns stor potential i AI är det viktigt att forskningen tar reda på hur den kan utnyttjas, och hur man samtidigt undviker fallgropar, skriver forskarna.

Bland de som undertecknat brevet finns fysikern Stephen Hawking, Telsa Motors, SpaceX grundare Elon Musk, Jaan Tallinn, en av grundarna av Skype, chefen för Facebooks AI-labb Yann LeCun och Peter Norvig forskningschef på Google.

I brevet skriver man att framstegen inom AI-forskning gör att tiden är inne för att fokusera på hur man kan maximera samhällsnyttan av AI.
Till brevet bifogas en lista där forskarna pekar på en rad områden som AI-forskare bör prioritera. I dokumentet ställs lagliga och etiska frågor om den snabbavancerade intelligensen och maskinernas oberoende. Forskarna ifrågasätter exempelvis tillförlitligheten och lagstiftningen runt automatiserade vapen och självkörande fordon. Man tar också upp integritetsaspekter av AI-system.

Kan dödliga automatvapen kombineras med mänsklig lag? Om det är lagligt att använda automatiserade vapen, hur ska dessa vapen integreras i dagens maktstrukturer och hur ska ansvarsfrågan lösas? Hur ska ”meningsfull mänsklig kontroll” över vapnen definieras?

Ska frågor som gäller AI gå under existerande, mjukvaru- och internetfokuserade ,”cyber-lagar” eller ska de hanteras separat? Vilken roll ska dataforskare spela när de kommer till utformningen av lagar och etiska riktlinjer som gäller för AI-utveckling och användning?

I dokumentet föreslås fyra fokusområden som ska säkra att framtida system är säkra och robusta: verifikation, validitet, säkerhet och kontroll.

Smarta maskiner som lär sig algoritmer eller metoder för att garantera att framtidens system uppfyller en rad regler kommer att behöva utvecklas menar forskarna.

”Validitet ska hantera oönskade beteenden som kan uppkomma trots ett systems formella korrekthet” skriver de i det bifogade dokumentet. ”För att ta fram förenklade regler, till exempel att själv-körande bilars beslut ska kontrolleras i kritiska situationer, kommer det sannolikt att krävas experter inom både etik och dataforskning.”

När man bygger smarta maskiner måste människan finnas kvar I processen skriver forskarna.

”Design av system och protokoll för överföring mellan automatiserad styrning och mänsklig kontroll är ett lovande område för framtida forskning” skriver forskarna som menar att den här typen av frågor också motiverar bredare forskning om hur man optimalt fördelar uppgifter i team som består av både människor och maskiner, samt identifierar situationer där kontrollen kan överlåtas, samt de värdefulla beslut som människor bör fatta.

IDG News