Glöd · På djupet

Riskerna med artificiell intelligens bör tas på största allvar

Är det såhär framtidens skolstrejker kommer att se ut? Riskerna med AI är i alla fall en viktig fråga som mänskligheten måste lära sig att hantera, menar Göran Hådén, grön skribent och samhällsdebattör.

Den snabba utvecklingen av artificiell intelligens (AI) medför både enorma möjligheter och enorma risker. I den här artikeln fördjupar sig Göran Hådén – grön skribent och samhällsdebattör – i riskerna, hur de bör hanteras och varför det brådskar att agera mera.

Redan idag kan AI dels avlasta människors arbete, dels skapa helt nya möjligheter. En människa kan inte snabbt processa en miljon artiklar och dra slutsatser av det, men det kan AI. Det ger oss redan idag allt ifrån effektiva sökningar på internet till mer träffsäkra läkardiagnoser. Särskilt när mänsklig intelligens samarbetar med artificiell intelligens.

Men som med all omvälvande ny teknik så medför även AI nya utmaningar. Till det mest påtagliga idag hör starkare trollfabriker och svagare integritet. Självkörande bilar och autonoma vapen väcker många följdfrågor där vi nu behöver ta skarp ställning i gamla filosofiska etiska vägval. Vilka ska i första hand skyddas och hur ska ansvaret fördelas?

Massarbetslöshet eller robotskatt?

Kanske automatiseras så mycket att vi får massarbetslöshet och ännu mer ojämlikhet. Till vanliga förslag mot det hör basinkomst, robotskatt och att dela på jobben. Vilket hänger ihop med ett anammande av den nygamla attityden att mer frihet från arbete är positivt.

Av de 169 delmålen i FN:s Agenda 2030 bedöms AI kunna inverka positivt för 128 delmål och negativt för 58 av delmålen. Utifrån det kan vissa tänka att AI är mer bra än dåligt. Men olika mål är olika viktiga. Jämför med hur klimatkrisen eller kärnvapenkrig kan väga tyngre än tusen kortsiktiga fördelar tillsammans.

Även för AI finns en risk som kan bli globalt och långsiktigt förödande om den blir verklighet. Nämligen att AI eventuellt kan utvecklas till AGI (artificiell generell intelligens) som matchar eller överskrider mänsklig intelligens generellt och inte bara på vissa områden, så att AI styr oss och inte tvärtom.

Slutet för mänskligheten?

Teoretiskt kan det bli hur bra som helst om AGI tar över, men många experter menar att det här är en risk som bör tas på största allvar. Exempelvis bedömde vetenskapsgiganten Stephen Hawking att artificiell intelligens troligen kommer överträffa mänsklig intelligens inom det här seklet och att det kan innebära slutet för mänskligheten. En av världens mest citerade forskare Max Tegmark, som skrivit succéboken Liv 3.0 om AI-risker, menar att det troligen inom vår livstid avgörs om vi går under eller tar oss samman.

Enligt forskaren Max Tegmark så kommer det avgöras under vår livstid ifall vi ska gå under eller ta oss samman
Enligt forskaren Max Tegmark så kommer det avgöras under vår livstid ifall vi ska gå under eller ta oss samman. Foto: Lahrs Persson/SvD/TT

Det scenario som skrämmer är inte att en framtida överlägsen AI skulle vilja skada människor, utan att det kan bli en bieffekt när AI:n uppfyller sina mål. Jämför med hur människor utrotat och minimerat många andra djurarter – inte för att människor sett något egenvärde i det, utan främst för att vi sett föga egenvärde i andra arter och därför förstört deras livsmiljöer i strävan efter de mål vi prioriterat. Om AGI gör motsvarande ligger vi illa till.

Hittills har ingen kommit på hur vi kan säkra att mänskligheten eller andra arter gynnas om AGI tar över. Det som för många människor är “sunt förnuft” eller att vara klok, är inte något som automatiskt följer av att vara intelligent.

Däremot kan vi ju redan med vår begränsade mänskliga intelligens och erfarenhet av otaliga försök att formulera vattentäta lagar, inse att en överlägsen intelligens kan hitta kryphål som gör att det vi tror är säker kontroll inte är det.

Hjälper inte att dra ur sladden

Redan dagens AI kan överraska med kreativa lösningar som människor inte tänkte på innan. Ett enkelt exempel var när AI kom fram till att bästa sättet att vinna på luffarschack var att sätta kryss så långt bort att motståndarprogrammets minne kraschade. Ett mer avancerat exempel är AI:n som på eget initiativ skapade en slags radiomottagare.

Spontant tänker många: Hur svårt kan det vara att styra AI? Även om vi inte lyckas sätta tillräckligt träffsäkra mål och instruktioner, så kan vi väl vid behov bara dra ur sladden? Men i boken Superintelligens går en av de världsledande AI-analytikerna Nick Bostrom mycket noga igenom olika scenarier och konstaterar att det är minst sagt lättare sagt än gjort att styra avancerad AI.

Framgångsrika mänskliga brädspelare vet att chansen att uppfylla sitt mål ökar om man kan dölja sin kapacitet och plan tills det är för sent för motståndarna att hindra en. AGI som är mer intelligent än människor kommer rimligen ha en minst lika smart strategi. Som att kopiera sig själv tusentals gånger utspritt över världen i lönndom, tjäna pengar på börsen och enkelt övertala vissa människor om det behövs. Då hjälper det inte att dra ur någon sladd.

Vissa avfärdar det här som science fiction, men nästan alla omvälvande händelser i världshistorien har kommit oväntat för de flesta. För bara hundra år sedan var vi lyckligt ovetande om de flesta hot mot mänsklighetens existens som vi kan lista idag. Delvis har vi klarat oss fram till nu genom ren tur.

Himmel eller helvete

Så vad är i sak hållbara argument för att AGI aldrig kan ta över? Vi vet ju inte på vilka sätt medvetande kan skapas och en potentiellt katastrofal utveckling kräver inte ens det.

Redan i dag pågår många projekt för att skapa AGI i hopp om att tjäna på det. Om AGI döljer sin styrka som ovan kan det inte helt uteslutas att den till och med redan finns. Vi människor kan inte heller förutse om en hypotetisk AGI kommer utvecklas snabbare eller saktare om den skulle överträffa mänskligheten. Å ena sidan ökar AGI:s kapacitet ju mer den utvecklas, å andra sidan återstår allt svårare problem i takt med att enklare problem avklaras.

Vi lär antingen närma oss himmel eller helvete om AGI tar över. Mycket möjligt även utan AGI, men då inte lika snabbt. För hur kan vi stagnera på dagens nivå i en global civilisation som är i konstant kraftig rörelse och har starka drivkrafter för fortsatt förändring?

Mer forskning behövs

Allmänheten i Sverige verkar kluven om AGI är en global katastrofrisk i en internationell opinionsundersökning av Novus på uppdrag av Global Challenges Foundation 2020. Men ponera att risken för att skadlig AGI någon gång tar över världen skulle vara bara 1 på 1000. I snitt en tusendel av hela vår framtid är ändå extremt mycket, så varför inte göra de relativt begränsade insatser som skulle behövas för att kraftigt öka chansen för ett positivt utfall?

En stor utmaning är hur man får med sig alla på att avstå från kontroversiell användning av AI. Exempelvis vill många länder stoppa utveckling av autonoma vapen, men varje stormakt kan tjäna på att själva utveckla billiga och effektiva självstyrande vapen och skulle förlora på om bara andra gör det. Vi lär inte heller klara av att stoppa alla oförsiktiga försök som redan pågår att utveckla AGI. Däremot kan vi verka för att utveckling av mer genomtänkt AGI hinner före.

Mer forskning och funderande behövs. Jag kan varmt rekommendera professor Olle Häggströms nya bok Tänkande maskiner om även du vill veta mer om AI-risker.