Varför upplöste OpenAI sitt AI-riskteam

OpenAI upplöste nyligen sitt Superalignment-team som hade fokuserat på att hantera långsiktiga risker förknippade med artificiell intelligens (AI), inklusive de existentiella farorna med att supersmart AI blir skurk. Detta beslut kom mitt i de uppmärksammade avgångarna från lagets ledare, Ilya Sutskever, en medgrundare av OpenAI, och Jan Leike

Ledarskapsavgångar: Upplösningen av Superalignment-teamet följde på att båda dess ledare, Ilya Sutskever och Jan Leike, lämnade OpenAI. Deras avgångar signalerade betydande förändringar inom organisationen och väckte oro över företagets engagemang för AI-säkerhet och riskhantering.

Omfördelning av teammedlemmar: Medlemmar i det upplösta teamet omfördelas till flera andra team inom företaget. Denna omstrukturering innebär att även om OpenAI fortfarande investeras i att hantera AI-risker, kan tillvägagångssättet integreras i olika projekt snarare än att koncentreras i ett enda dedikerat team.

Säkerhetskultur och prioriteringar: Jan Leike uttryckte i sina offentliga uttalanden oro över att OpenAI:s ”säkerhetskultur och -processer har tagit en baksätet till glänsande produkter.” Han betonade att mycket mer företagsbandbredd borde allokeras till säkerhet, övervakning, beredskap, säkerhet och samhällspåverkan, vilket han ansåg inte var tillräckligt prioriterat.

Konsekvenser och framtidsutsikter

Upplösningen av Superalignment-teamet markerar en vändpunkt för OpenAI, vilket reflekterar en möjlig förändring i hur företaget planerar att integrera säkerhets- och riskhanteringsstrategier i sina bredare forsknings- och utvecklingsinsatser. OpenAI verkar omvärdera strukturen och fokuset på sina team för att säkerställa att säkerhet fortsätter att vara en nyckelfaktor över alla dess AI-forsknings- och utvecklingsinitiativ.

Medan upplösningen av Superalignment-teamet har väckt oro inom AI-säkerhetsgemenskapen, kvarstår OpenAI:s åtagande att säkert utveckla artificiell allmän intelligens till förmån för mänskligheten som uttalat i deras stadgar. Hur detta åtagande kommer att manifesteras i deras nya organisationsstruktur och framtida projekt återstår att se.

OpenAI har inte direkt kommenterat situationen med Superalignment-teamet och dess medlemmars beslut att lämna företaget offentligt. En artikel från Vox pekar på att OpenAI är känt för att få sina anställda att underteckna avtalsavtal vid avgång med villkor om icke-kritik. Om man vägrar att underteckna ett sådant avtal, ger man upp sin aktiekapital i företaget, vilket potentiellt innebär att man förlorar miljontals dollar.

Artikeln nämner att OpenAI inte svarade på en begäran om kommentarer i tid för publicering. Efter publiceringen av artikeln skickade OpenAI dock en uttalande där de påstod att de aldrig har avbrutit någons aktiekapital eller kommer att göra det om människor inte undertecknar ett avslutningsavtal eller ett avtal om icke-kritik när de avgår. När journalisten Kelsey Piper frågade om detta representerade en förändring i politik, svarade OpenAI: ”Detta uttalande speglar verkligheten”.

Leave a Reply

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *