Språket vi använder för teknik är ofta vilseledande, utformat för att tämja och domesticera. Vi får höra att Google har ett nytt ”chip”. Det är ett betryggande, välbekant ord. Ett chip är en liten, livlös kvadrat av kisel, något man kan hålla i handen.
Denna superdator är modulärt uppbyggd. En enskild fysisk värd (host) innehåller fyra Ironwood-chip, och ett rack med dessa värdar bildar en ”kub” med 64 chip. För att skala ytterligare kopplas dessa kuber samman via ett dynamiskt optiskt kretskopplingsnätverk (Optical Circuit Switch – OCS), vilket gör att systemet kan länka samman upp till 144 kuber i en ”superpod” med 9 216 chip. Denna arkitektur på pod-nivå handlar inte bara om storlek; den levererar 42,5 FP8 ExaFLOPS i beräkningskraft och tillgång till 1,77 Petabyte delat HBM-minne (High-Bandwidth Memory).
För att förstå vad Google har byggt måste man först frångå idén om en diskret, enskild produkt. Den sanna beräkningsenheten är inte längre processorn; det är datacentret i sig. Ironwood, Googles sjunde generationens Tensor Processing Unit (TPU), existerar som en ”superpod” – en enda, sammanhållen superdator som kopplar samman 9 216 av dessa nya chip. Denna kolossala arkitektur kyls inte av enkla fläktar, utan av en ”avancerad vätskekylningslösning” i industriell skala, ett cirkulationssystem som är nödvändigt för att skingra den enorma spillvärme som genereras av dess strömförbrukning på 10 megawatt.
För att sätta det i sitt sammanhang motsvarar 10 megawatt ungefär energiförbrukningen för en liten stad eller en stor industrianläggning. Detta är den rena ”råstyrkan” hos modern artificiell intelligens. AI är inte ett eteriskt, abstrakt ”moln”. Det är en fysisk tung industri som förbrukar råmaterial (i det här fallet energi i planetskala) för att producera en ny, osynlig handelsvara: syntetisk intelligens. Ironwood-podden, med sin konfiguration på 9 216 chip, är den nya motorn i denna industri, en vätskekyld bjässe designad för ett enda syfte: att tänka i en skala som fram till nu var ofattbar.
Detta exponerar omedelbart den centrala konflikten i 2000-talets avgörande teknik. Denna nivå av energiförbrukning, skalad över en hel industri, är i grunden ohållbar. Denna 10-megawatts-pod är ett tekniskt underverk, men det är också en djupgående miljöskuld. Resten av berättelsen om AI är ett försök att brottas med detta enda, grundläggande faktum.
Inferensåldern
Under det senaste årtiondet har den primära utmaningen för AI varit ”träning”. Detta är den dyra och tidskrävande processen att lära en modell, mata den med hela internet för att ”lära sig” språk, logik och resonemang. Men den eran håller på att ta slut. Den nya frontlinjen är ”inferensåldern” – det konstanta tänkandet i hög volym och realtid som modellen utför efter att den har tränats.
Varje gång en AI besvarar en fråga, genererar en bild eller ”proaktivt hämtar och genererar data”, utför den inferens. Ironwood är, enligt Googles eget medgivande, deras ”första accelerator designad specifikt för inferens”. Detta signalerar ett kritiskt skifte på marknaden. Kampen handlar inte längre bara om att bygga de största modellerna, utan om att effektivt köra den ”högvolyms-, låglatens-inferens och modellservering” som kommer att driva den kommande vågen av ”AI-agenter”, likt Googles egen Gemini.
Det är här Googles sanna strategi avslöjas. Ironwood är inte en produkt som ska säljas; det är en grundläggande komponent i Googles ”AI Hypercomputer”. Detta är inte bara hårdvara, utan ett vertikalt integrerat system där hårdvaran (Ironwood TPU:er och de nya Arm-baserade Axion-processorerna) är ”samdesignad” med en proprietär mjukvarustack.
Denna samdesignade stack är Googles strategiska vallgrav. Även om den erbjuder ”färdigt” stöd för ramverk med öppen källkod som PyTorch för att locka utvecklare, är stacken i själva verket optimerad för Googles eget JAX-ekosystem.
- XLA-kompilatorn (Accelerated Linear Algebra) fungerar som den avgörande översättaren och omvandlar kod på hög nivå till hypereffektiva instruktioner som körs direkt på TPU-kislet. Detta ger en bred, ”färdig” optimering och översätter kod från ramverk som JAX och PyTorch.
- Den nya ”Cluster Director” för Google Kubernetes Engine (GKE) är orkestreraren, en mjukvara som kan hantera superpodden med 9 216 chip som en enda, motståndskraftig enhet. Denna mjukvara erbjuder topologimedvetenhet för intelligent schemaläggning, vilket förenklar hanteringen av massiva kluster och möjliggör resilienta, självläkande operationer.
- Och inbyggt stöd för vLLM maximerar inferensgenomströmningen, en kritisk komponent för att servera modeller i ”inferensåldern”. Detta stöd är avgörande eftersom vLLM använder högeffektiva minneshanteringstekniker för att maximera prestanda och låter utvecklingsteam växla mellan GPU:er och TPU:er med minimala ändringar.
Under det senaste årtiondet har NVIDIAs dominans byggt inte bara på deras GPU:er, utan på deras proprietära mjukvaruplattform CUDA – en ”vallgrav” som utvecklare är inlåsta i. Googles AI Hypercomputer är ett direkt försök att bygga ett rivaliserande, muromgärdat ekosystem. Genom att erbjuda överlägsen prestanda per dollar endast till dem som förbinder sig till deras stack, positionerar sig Google för att bli det fundamentala nyttotjänsteföretaget (utility) för AI-ekonomin. De säljer inte bilarna (som NVIDIA); de siktar på att sälja elektriciteten som driver dem.
Kungamakaren och Molnkriget
Den ultimata valideringen av denna strategi kom i slutet av 2025. Anthropic, ett ledande AI-labb och främsta rival till OpenAI, tillkännagav en historisk expansion av sitt partnerskap med Google. De förband sig att använda Googles TPU-infrastruktur, inklusive nya Ironwood, i en svindlande skala: ”upp till en miljon TPU:er”.
Detta är ingen obetydlig investering. Det är ett avtal värt ”tiotals miljarder dollar” som kommer att tillföra ”långt över en gigawatt kapacitet” online för Anthropic till 2026. Detta enda avtal tjänar som den ultimata rättfärdigandet för Googles årtionden långa, mångmiljardsatsning på specialanpassat kisel. Anthropics uttalade skäl för detta massiva åtagande var ”pris-prestanda och effektivitet”, en tydlig signal om att Googles samdesignade, vertikalt integrerade stack kan erbjuda ett övertygande ekonomiskt alternativ till NVIDIAs dominans.
Men historien har en kritisk vändning – en som avslöjar de verkliga maktdynamikerna i AI-industrin. Anthropic är inte exklusivt Googles. I sitt eget tillkännagivande var Anthropic noga med att påpeka att Amazon Web Services (AWS) förblir deras ”primära träningspartner och molnleverantör”. Detta AWS-partnerskap är byggt kring ”Project Rainier”, ett massivt kluster som använder hundratusentals av Amazons egna Trainium2-acceleratorer. Företaget följer en ”diversifierad strategi” och spelar strategiskt ut Googles TPU:er, Amazons Trainium-chip och NVIDIAs GPU:er mot varandra.
Detta är inte obeslutsamhet; det är en briljant överlevnadshandling. Läckta data visar att Anthropics beräkningskostnader enbart hos AWS slukade så mycket som 88,9 % av deras intäkter. AI-labbens hela existens beror på att få ner denna astronomiska kostnad. Genom att tvinga fram detta budkrig uppskattar analytiker att Anthropic sannolikt säkrar sina beräkningar – den enskilt dyraste delen av deras verksamhet – med en massiv rabatt på 30–50 %. Genom att offentligt samarbeta med både Google och Amazon har Anthropic gjort sig själv till ”kungamakare”. De tvingar molnjättarna till en budgivningskrig, och utnyttjar sin status som ett ”prisat” AI-labb för att få molnjättarna att i praktiken subventionera deras enorma beräkningskostnader.
Denna dynamik har fundamentalt förändrat marknaden. Den slutliga vinnaren kommer inte att vara den med det snabbaste chippet, utan den med det bästa förhållandet mellan beräkning, kraft och kostnad. ”Prestanda per watt” är inte längre en enkel miljöparoll; det är hela industrins primära strategiska och ekonomiska slagfält.
De Nya Kiseljättarna: En Orolig Oligarki
Lanseringen av Ironwood är ett direkt skott mot NVIDIA, men slagfältet är fullt. AI-kapplöpningen utkämpas av en ny oligarki av kiseljättar, en liten handfull företag med kapitalet och den tekniska expertisen att bygga ”spadarna” till denna nya guldrusch.
- Den sittande kungen (NVIDIA): NVIDIAs Blackwell-generation av GPU:er, B100 och B200, och deras föregångare, H100, förblir industristandarden. Deras dominans skyddas av den djupa mjukvaruvallgraven CUDA, som de flesta AI-forskare och utvecklare är utbildade i.
- Pretendenterna (Molnjättarna & AMD):
- Amazon (AWS): Den mest mogna specialkisel-verksamheten bland molnleverantörerna. AWS använder en dubbel-chip-strategi: ”Trainium” för kostnadseffektiv träning och ”Inferentia” för höghastighetsinferens till låg kostnad. Denna strategi binds samman av AWS Neuron SDK, mjukvarulagret som är utformat för att optimera PyTorch- och TensorFlow-arbetsbelastningar för deras specialkisel.
- Microsoft (Azure): För att tillgodose de massiva behoven hos sin nyckelpartner, OpenAI, har Microsoft utvecklat sin egen AI-accelerator ”Maia 100”, och samdesignat den för arbetsbelastningarna från ChatGPT och GPT-4. Som en av de största processorerna byggda på TSMC:s 5nm-nod är Maia 100 ett 500W-700W chip som, likt sina rivaler, är samdesignat med sin egen mjukvarustack för att portera modeller från ramverk som PyTorch.
- AMD: NVIDIAs traditionella rival, AMD, konkurrerar direkt på prestanda med sin Instinct MI300X-accelerator, som matchar nya generationens chip på nyckeltal som minneskapacitet (192 GB).
Denna företagskapprustning drivs av tre enkla faktorer:
- Kostnad: Att designa sitt eget chip är det enda sättet att undkomma NVIDIAs vinstmarginaler på ”mitten av 70 %” och deras premiumprissättning.
- Tillgång: Det ger strategiskt oberoende från den kroniska bristen på NVIDIA GPU:er som har varit en flaskhals för hela industrin.
- Optimering: Det möjliggör den typ av ”prestanda per watt”-fördel som Google jagar – ett chip som är perfekt ”samdesignat” för deras specifika mjukvara och molnarbetsbelastningar.
Molnjättarna behöver inte döda NVIDIA. De behöver bara skapa ett livskraftigt, internt alternativ som är tillräckligt bra. Detta kommodifierar marknaden, ger kunderna ett val och tvingar NVIDIA att sänka sina priser, vilket sparar molnjättarna miljarder på deras egna kapitalutgifter.
Skalan på denna konsolidering är svår att greppa. De stora teknikjättarna, inklusive Google, Meta, Amazon och Microsoft, förväntas spendera så mycket som 375 miljarder dollar under ett enda år på byggandet av dessa datacenter och den AI-hårdvara som ska fylla dem. Inträdesbarriären till denna nya marknad är svindlande. AI-revolutionen kommer inte att avgöras av en smart algoritm i ett garage; den kommer att avgöras av de fem företag som har råd att bygga dessa 10-megawatts hjärnor.
Uppgörelsen mellan AI-Acceleratorer 2025
Google Ironwood (TPU v7): Typ: ASIC. Max HBM (Minne): 192 GB HBM3e. Max Minnesbandbredd: 7,4 TB/s. Central Skalningsarkitektur: 9 216-chips Superpod (9,6 Tb/s ICI). Primärt Användningsfall: Inferens & Träning.
NVIDIA Blackwell B200: Typ: GPU. Max HBM (Minne): 192 GB HBM3e. Max Minnesbandbredd: 8 TB/s. Central Skalningsarkitektur: NVLink 5 (1,8 TB/s). Primärt Användningsfall: Allmän Träning & Inferens.
AMD Instinct MI300X: Typ: GPU. Max HBM (Minne): 192 GB HBM3. Max Minnesbandbredd: 5,3 TB/s. Central Skalningsarkitektur: 8-GPU Ring. Primärt Användningsfall: Allmän Träning & Inferens.
AWS Trainium / Inferentia 2: Typ: ASIC. Max HBM (Minne): (Trn) N/A / (Inf2) 32 GB HBM. Max Minnesbandbredd: (Inf2) N/A. Central Skalningsarkitektur: AWS Neuron SDK / Kluster. Primärt Användningsfall: Uppdelat: Träning (Trn) / Inferens (Inf).
Microsoft Maia 100: Typ: ASIC. Max HBM (Minne): 64 GB HBM2E. Max Minnesbandbredd: N/A. Central Skalningsarkitektur: Ethernet-baserat nätverk. Primärt Användningsfall: Intern (OpenAI) Träning & Inferens.
I Skuggan av Chipkriget
Företagens kamp mellan Google, NVIDIA och Amazon utkämpas i skuggan av en mycket större, mer ödesdiger konflikt: det geopolitiska ”Chipkriget” mellan USA och Kina.
Hela den moderna världen, från våra smartphones till våra mest avancerade militära system, bygger på en hisnande bräcklig leveranskedja. Taiwans ”kiselsköld” (Silicon Shield), hem för TSMC, producerar ”ungefär 90 % av världens mest avancerade halvledare”. Denna koncentration av tillverkning i Taiwansundet, en ”kritisk geopolitisk flampunkt”, är den enskilt största sårbarheten i den globala ekonomin.
Under de senaste åren har USA använt detta beroende som ett vapen och implementerat ”svepande exportkontroller” för att ”beröva Kina… avancerade chip” i ett försök att bromsa landets tekniska och militära framväxt. Som svar ”öser Kina miljarder över sina ambitioner att bygga chip”, och accelererar sin ”militär-civila fusionsstrategi” i en desperat jakt på ”halvledar-självförsörjning”.
Denna jakt personifieras av statsunderstödda företag som Huawei. Deras arbete med att utveckla inhemska AI-chip, som Ascend 910C, utgör en direkt utmaning mot NVIDIAs dominans inom Kina. Denna vertikala integration, kombinerad med Kinas ”militär-civila fusionsstrategi”, gör det allt svårare för västallierade nationer att identifiera vilka delar av den kinesiska leveranskedjan som är säkra att engagera sig i.
Denna globala instabilitet skapar en existentiell risk för de stora teknikföretagen. En militär konflikt i Taiwan skulle kunna stoppa AI-industrin över en natt. Den kroniska bristen på NVIDIA-chip är en mindre olägenhet jämfört med en katastrof i leveranskedjan.
Sett genom denna lins är Googles Ironwood mer än en konkurrenskraftig produkt; det är en handling av ”företagssuveränitet”. Genom att designa sitt eget specialanpassade kisel ”mildrar” företag som Google, Amazon och Microsoft ”riskerna i leveranskedjan” och ”minskar beroendet av tredjepartsleverantörer”. De äger den immateriella äganderätten. De är inte längre beroende av ett enda företag (NVIDIA) eller en enda, sårbar region (Taiwan). De kan diversifiera sina tillverkningspartners och säkerställa att deras affärsmodell överlever en geopolitisk chock.
Företagens kapprustning och den geopolitiska är nu två sidor av samma mynt. De massiva investeringarna från Google och Amazon implementerar i själva verket USA:s industripolitik. De skapar den industriella ryggraden för en västallierad teknologisfär (”Chip 4”-alliansen) och etablerar ett ”teknologiskt avstånd” som Kinas inhemska lösningar, som Huaweis Ascend 910C, kämpar för att överbrygga.
Beräkningarnas Olidliga Börda
Detta för oss tillbaka till 10-megawatts-podden. AI-kapplöpningen, driven av företagsambitioner och geopolitik, konfronterar nu sina egna fysiska gränser. Miljöpriset för skalning med ”råstyrka” är svindlande.
Anthropics avtal för Googles TPU:er gäller ”över en gigawatt” effekt. Det motsvarar 100 Ironwood-pods som körs samtidigt, eller hela produktionen från ett fullskaligt kärnkraftverk, dedikerat till ett enda företag. Och det företaget är bara ett av många.
Koldioxidavtrycket från en enda ”tanke” blir oroväckande tydligt.
- Att träna en enda stor AI-modell kan släppa ut över 626 000 pund (ca 284 000 kg) CO2, ”ungefär motsvarande de samlade livstidsutsläppen från fem amerikanska bilar”.
- En enda fråga till en AI som ChatGPT använder ”ungefär 100 gånger mer energi än en vanlig Google-sökning”.
- Det totala energiavtrycket från den generativa AI-industrin ”växer exponentiellt” och är redan ”likvärdigt med ett låginkomstlands”.
Det är inte bara energi. Datacenter ”slukar” också en mer ändlig resurs: vatten. De kräver ”enorma mängder vatten för kylning”, vilket lägger en enorm börda på lokala resurser, ofta i regioner som redan har vattenbrist. Industrins uppskattningar tyder på att det genomsnittliga datacentret redan använder 1,7 liter vatten för varje kilowattimme energi som förbrukas.
Industrin, inklusive Google, försöker avleda denna kris genom att skryta om ”effektivitetsvinster”. Google hävdar att Ironwood är ”nästan 30 gånger mer energieffektiv än vår första Cloud TPU från 2018”. Detta är dock en villospår. Det är ett tydligt exempel på Jevons paradox: tekniska effektivitetsvinster, när de tillämpas på en eftertraktad resurs, minskar inte konsumtionen. De ökar den genom att göra resursen billigare och mer tillgänglig.
Ironwoods effektivitet löser inte miljöproblemet; den accelererar det. Den gör det ekonomiskt och tekniskt genomförbart att bygga ännu större modeller och hantera ännu fler frågor, vilket driver den totala energiförbrukningen allt högre. Industrins kapplöpning för att ”prioritera hastighet framför säkerhet och etik” – en brådska som har lett till dokumenterade misslyckanden som Googles egna partiska Gemini-resultat – skapar en etisk kris på planetär nivå, där miljöskadan är en massiv, extern kostnad som inte syns i balansräkningen.
Denna etiska kris härrör från AI-systemens potential att inbädda och förstärka mänskliga fördomar, hota mänskliga rättigheter och manipulera den allmänna opinionen genom desinformation. USA:s riksrevision (GAO) har noterat att trots övervakning förblir dessa system, när de stressas ut på marknaden, mottagliga för attacker som genererar faktiskt felaktiga eller partiska resultat. Denna ”kapplöpningsdynamik”, där företagens mål om snabb driftsättning åsidosätter säkerhetsprotokoll, skapar en grundläggande spänning mellan innovation och ansvar.
Coda: Suncatcher i Skyn
Googles ingenjörer är inte blinda för denna paradox. De ser energiförbrukningsgraferna. De förstår att ”råstyrke”-skalningen av AI har ett jordiskt tak. Deras föreslagna lösning är den perfekta, surrealistiska metaforen för hela industrin.
Det är ett långsiktigt, visionärt forskningsprojekt (moonshot) kallat ”Project Suncatcher”.
Planen är att skjuta upp AI-datacenter i rymden. Dessa ”kompakta konstellationer av solcellsdrivna satelliter”, utrustade med Googles TPU:er och sammankopplade med ”optiska länkar i fritt utrymme”, skulle placeras i en ”solsynkron bana i låg omloppsbana (dawn-dusk)”. Där skulle de ta emot ”nästan kontinuerligt solljus”, vilket löser energiproblemet, medan rymdens vakuum skulle erbjuda en lösning för kylning utan vatten.
Detta är inte fantasi. Google har redan testat sina TPU:er av Trillium-generationen i en partikelaccelerator för att simulera strålningen i låg omloppsbana, och chippen ”överlevde utan skador”. En prototyuppskjutning i samarbete med Planet Labs är planerad till början av 2027.
Project Suncatcher är ett tyst medgivande om ett jordiskt misslyckande. Det är en bekännelse att den väg industrin har valt – vägen som drivs av 10-megawatts hjärnor som Ironwood – är ohållbar på planeten Jorden. Projektets mål är, med Googles egna ord, att ”minimera påverkan på terrestra resurser” eftersom den ”miljömässiga bördan” från deras egen färdplan börjar bli för tung att bära.
Detta är det ultimata uttrycket för det teknologiska sublima. AI-kapplöpningen, i sin jakt på en gudalik intelligens, skapar en framtid där beräkningskostnaden för vår egen nyfikenhet är så stor att vi bokstavligen måste fly från vår egen planet för att upprätthålla den. Ironwood-chippet är motorn. Hypercomputer är fabriken. Chipkriget är skuggan. Och Project Suncatcher är flyktluckan – ett desperat, briljant och skrämmande logiskt språng ut i tomrummet.
Denna logik är dock inte utan sina egna djupgående tekniska och ekonomiska utmaningar. Skeptiker är snabba med att påpeka att rymden inte är en magisk lösning för kylning; den är den ”bästa värmeisolatorn som finns”. Ett rymdbaserat datacenter skulle inte kylas passivt, utan skulle kräva massiva, komplexa radiatorer i jämförbar storlek med sina solpaneler. Dessa system skulle också behöva hantera de extrema kostnaderna för underhåll och det konstanta bombardemanget av strålning som förstör processorer – hinder som gör denna ”flyktlucka” till ett vågspel av sannerligen astronomiska proportioner.
