Vi står inför en ny typ av global kapprustning, men inte om kärnvapen eller rymden, utan om artificiell generell intelligens (AGI). Och den här gången är det inte bara stater som tävlar utan också världens mäktigaste techbolag och deras karismatiska ledare som årligen pumpar in hundratals miljarder dollar i sina projekt. Insatsen är inte heller ”bara” geopolitisk makt utan hela biosfärens och mänsklighetens framtid.
Sam Altman, vd för Open AI, har gång på gång varnat för att AGI kan utgöra en existentiell risk, farligare än kärnvapen, samtidigt som han själv driver utvecklingen framåt i rasande takt. I mars 2023 skrev han tillsammans med över tusen forskare och techledare ett öppet brev som krävde ett halvårs paus i utvecklingen av system starkare än GPT 4. Brevet varnade uttryckligen för ”risk för utrotning.”
Pausen kom aldrig. Istället accelererar Open AI sin forskning mot modeller som enligt interna källor kan vara tusen gånger kraftfullare än dagens.
Elon Musk, som var med och grundade Open AI 2015 just för att det skulle vara en motvikt till Googles dominans, lämnade styrelsen 2018 i protest mot att bolaget övergav sin ursprungliga icke-vinstdrivande idé. Vidare stämde han OpenAI för kontraktsbrott och sa att han var orolig för att Sam Altman skulle skapa en AGI som är farlig för hela mänskligheten.
Samma Musk bygger nu en modell med motsvarande kapacitet genom xAI och Grok med anledning av att han vill ”förstå universum” snabbare än konkurrenterna.
Det är samma mönster överallt. Googles DeepMind-chef Demis Hassabis snackar snyggt om säkerhet och alignment medan bolaget parallellt tar fram Gemini-modeller som blir alltmer mäktiga.
Företaget Anthropic, grundat av tidigare OpenAI-säkerhetschefer, drog in 4 miljarder dollar från Amazon och 2 miljarder från Google trots att man säger sig vara det enda ”säkra” alternativet.
Alla säger de att de vill bromsa utvecklingen, alla gasar på.
Kapprustningens logik är enkel. Den som först hinner skapa en superintelligens vinner gudomlig makt och alla andra förlorar. Det är ett klassiskt säkerhetsdilemma, fast av tidigare aldrig skådat mått. Ingen vågar ensidigt nedrusta för då vinner motståndaren. Därför nedprioriteras säkerhetsarbetet.
Vi ser det i hur OpenAI har skrotat sitt superalignment-team. Hur tidigare säkerhetsforskare på både Open AI och Anthropic har slutat i protest. Hur visselblåsare vittnar om en kultur genomsyrad av Silicon valley-mantrat ”move fast and break things”. Men det som riskerar att gå sönder den här gången är inte en app utan hela biosfären.
Det finns bara en väg ut ur den här fällan. Bindande internationella avtal med inspektioner, begränsningar av beräkningskraft och ett moratorium på gigantiska träningskörningar tills vi faktiskt vet hur man gör systemen säkra. Men det kräver att vi behandlar AGI som det vapen, kraftfullare än kärnkraft, som det potentiellt är och inte som en konsumentprodukt eller något marknaden själv får reglera.
Vi kan inte stillatigande se på medan tech-miljardärerna, den ena galnare än den andra, tävlar om att bli universums mäktigaste samtidigt som de trycker gasen i botten mot ett stup.