Microsoft säger att amerikanska rivaler börjar använda generativ AI i offensiva cyberoperationer

Cybersecurity

Microsoft har nyligen gjort ett uttalande om att amerikanska rivaler närmare bestämt Iran och Nordkorea samt i mindre utsträckning Ryssland och Kina, har börjat använda generativ artificiell intelligens för att utföra eller organisera offensiva cyberoperationer.

Detektering och Störning

Microsoft och deras affärspartner OpenAI har gemensamt upptäckt och stört de skadliga cyberaktörernas användning av AI-teknologi genom att stänga ner deras konton. De tekniker som använts har beskrivits som ”tidiga” och varken ”särskilt nyskapande eller unika”, men Microsoft belyser att det är viktigt att offentligt exponera dem eftersom rivalerna använder storskaliga språkmodeller för att utöka deras förmåga att bryta sig in i nätverk och genomföra påverkansoperationer.

Microsoft gav exempel på hur olika grupper använder AI:

  • Nordkoreas cyberspionagegrupp Kimsuky har forskat i utländska tankesmedjor och skapat innehåll för spear-phishing-kampanjer.
  • Irans revolutionsgarde har använt AI för social ingenjörskonst, felsökning av mjukvarufel och för studier kring hur inkräktare kan undvika upptäckt.
  • Den ryska militära underrättelseenheten Fancy Bear har använt modellerna för att forska i satellit- och radarteknologi som kan vara relaterad till kriget i Ukraina.
  • Kinesiska cyberspionagegruppen Aquatic Panda och Maverick Panda har interagerat med modellerna på sätt som tyder på en begränsad utforskning av hur LLM kan förbättra deras tekniska operationer 

Microsoft och OpenAI går samman mot globala AI-drivna cyberhot

  • Microsoft och OpenAI har samarbetat för att motverka skadlig AI-aktiverad cyberaktiviteter av statligt anslutna aktörer från Kina, Iran, Nordkorea och Ryssland.
  • Samarbetet har producerat forskning som visar dessa gruppers utnyttjande av AI för uppgifter som forskning om satellitprotokoll, skapande av innehåll för nätfiske och utveckling av skadlig programvara.
  • För att bekämpa detta har Microsoft och OpenAI infört principer för att förhindra missbruk av deras AI-tjänster och dela hotdata med branschen.
  • De åtar sig att informera allmänheten om AI-hot och förbättra AI-säkerhetsmekanismerna med hjälp av insamlad data.
  • Partnerskapet understryker det akuta behovet av cybersäkerhetsåtgärder inför allt mer sofistikerade AI-drivna cyberhot från kontradiktoriska stater.

Iran-kopplade hackare använde AI för att störa globala tv-tjänster

Iran-länkade hackare använde AI för att störa globala TV-tjänster i samband med en ökning av cyberattacker. Hackarna använde artificiell intelligens för att sända en falsk nyhetsrapport om Gaza med en påhittad AI-nyhetsankare. Denna attack är ett exempel på hur tekniken används för att skapa kaos och störa vardagen för människor världen över. Cyberattacker har blivit allt vanligare och mer sofistikerade, vilket kräver ökad uppmärksamhet och säkerhetsåtgärder för att skydda digitala system och information. Det är viktigt att vara medveten om sådana hot och vidta lämpliga åtgärder för att förhindra framtida incidenter.

Kritiker mot den offentliga lanseringen av verktyg som ChatGPT argumenterar för att det var oansvarigt överilat, med tanke på att säkerheten i stor utsträckning var en eftertanke i deras utveckling. Det finns uppmaningar från cybersäkerhetsexperter om att Microsoft istället borde fokusera på att göra modellerna säkrare snarare än att skapa och sälja verktyg för att hantera sårbarheter i modellerna.