Teknik

En AI skrev en fungerande zero-day-attack — Google hann hindra den

Susan Hill

Exploaten siktade på tvåfaktorsautentisering — det extra kontrollsteg som skyddar de flesta konton man bryr sig om: e-post, banktjänster, molnlagring, jobbinloggningar. Sårbarheten, ett semantiskt logikfel i verktygets Python-kod, lät en angripare som redan hade stulna inloggningsuppgifter passera 2FA-kontrollen genom att utlösa ett hårdkodat undantag som utvecklarna aldrig tänkt exponera. Google identifierade felet, rapporterade det till leverantören för en patch och stoppade den planerade attacken innan den hann starta. Det som gör upptäckten unik är inte felet i sig utan sättet det hittades på.

Googles analytiker säger att exploatkoden bar tydliga fingeravtryck av en stor språkmodell — docstrings i handledningsstil, mycket strukturerad formatering och en skrivstil som de beskriver som mycket typisk för LLM-träningsdata. Teamet drog med hög tillförsikt slutsatsen att det var en AI, inte en ensam person, som bar huvuddelen av arbetet med att hitta och beväpna sårbarheten. Det drabbade företaget, den kriminella gruppen och verktygets namn är fortfarande hemliga.

Den distinktionen spelar roll, för felet är just den typ som maskiner inte skulle vara bra på att hitta. Klassiska sårbarhetsskannrar letar efter krascher och minneskorruption. Det här var en motsägelse mellan logiken som upprätthåller 2FA och ett hårdkodat undantag — den sorts bugg som en noggrann mänsklig granskare kan hitta genom att läsa tusentals rader kod på jakt efter inkonsekvenser. De mest avancerade språkmodellerna, noterar Google, klarar den kontextläsningen i tempon ingen granskningsgrupp kan matcha.

Rapporten beskriver också ett bredare mönster utanför kriminella aktörer. Ett Kina-anpassat kluster som spåras som UNC2814 använder AI för att snabba upp sårbarhetsforskning på inbäddade enheter. APT45, en nordkoreansk grupp, matade en modell med tusentals upprepade prompter för att rekursivt analysera CVE-poster och validera proof-of-concepts. Olika aktörer, samma teknik: gör modellen till en outtröttlig forskningsassistent.

Googles berättelse har gränser värda att namnge. Företaget har inte nämnt vare sig det drabbade verktyget, hotaktören eller patch-tidslinjen, och ber läsarna lita på slutsatsen om AI-spår enbart utifrån sin interna analys. Ingen av de tredjepartsbekräftelser som släppts den här veckan bidrar med någon oberoende kriminalteknisk granskning av själva exploatkoden. Den höga tillförsikten är GTIG:s ord mot den kriminella gruppens tystnad. Det är också sant att grundfelet — ett hårdkodat undantag — är exakt den sortens misstag som mänskliga utvecklare gjort i decennier utan någon AI-hjälp. Modellen kan ha snabbat upp upptäckten; felet är äldre än systemet som hittade det.

För de flesta användare finns ingen omedelbar åtgärd — felet ligger i programvara som IT-avdelningar sköter, inte i personliga enheter — men implikationen är tydlig. Det försvarsperspektiv vi förlitar oss på, från lösenordshanterare till företagens single sign-on, designades för mänskliga angripare i mänsklig hastighet. En AI-assisterad angripare läser en kodbas som en senior ingenjör läser ett stycke. Försvararna måste lära sig samma sak.

Det bekräftade är att den drabbade leverantören är informerad och rullar ut en patch. Den bredare analysen publicerades som del av Google Clouds löpande hot­information­serie om AI i offensiv säkerhet den 11 maj 2026. Googles chefshotanalytiker John Hultquist sa till reportrar dagarna efter att kapplöpningen mellan AI och försvarare redan pågår och inte är något som ligger framför oss. En uppföljande rapport om AI-stödda verktyg väntas före utgången av andra kvartalet.

Diskussion

Det finns 0 kommentarer.