Den teknologiska civilisationen står inför en existentiell paradox. Samtidigt som efterfrågan på artificiell intelligens (AI) växer exponentiellt, driven av spridningen av stora språkmodeller (LLM) och generativa system, närmar sig den fysiska infrastrukturen som stöder dessa framsteg snabbt oöverstigliga termodynamiska gränser. Den rådande berättelsen om Moores lag – den ständiga fördubblingen av transistorer och effektivitet – har börjat spricka. Detta beror inte på en oförmåga att miniatyrisera ytterligare, utan på de fundamentala begränsningarna kring värmeavledning och energiförbrukning. I denna kritiska kontext framträder termodynamisk beräkning (thermodynamic computing), ett paradigmskifte som lovar att inte bara mildra energikrisen, utan att omdefiniera själva naturen av informationsbehandling.
Wattens tyranni i den generativa AI:ns tidsålder
Dagens datorarkitektur, baserad på von Neumann-modellen och deterministisk boolesk logik, slår i det experterna kallar ”Energiväggen”. Träning och inferens av avancerade AI-modeller är nästan uteslutande beroende av grafikprocessorer (GPU:er), såsom den allestädes närvarande NVIDIA H100. En enda sådan enhet har en termisk designeffekt (TDP) på 700 watt, och när de grupperas i HGX H100-system överstiger förbrukningen 2 000 watt per rack. Denna effekttäthet förvandlar moderna datacenter till digitala smältugnar som kräver massiv kylinfrastruktur och konsumerar vatten och elektricitet i industriell skala.
Makroekonomiska data bekräftar att krisen är överhängande. Goldman Sachs prognostiserar att den globala energiefterfrågan från datacenter kommer att öka med 165 % vid slutet av årtiondet. Samtidigt uppskattar Internationella energirådet (IEA) att datacentrens elförbrukning kan fördubblas till 2026 och nå 1 000 TWh – en siffra som motsvarar Japans totala elförbrukning. Denna tillväxt är inte linjär utan följer den exponentiella kurvan för AI-modellernas komplexitet, vilket skapar en ohållbar situation där 92 % av cheferna för datacenter redan identifierar elnätets begränsningar som det främsta hindret för skalning.
Determinismens inneboende ineffektivitet
Det grundläggande problemet ligger inte enbart i mängden beräkningar, utan i deras fysiska kvalitet. Nutida digital beräkning opererar under en regim av brusreducering. För att garantera att en bit otvetydigt är en 0:a eller en 1:a måste transistorer arbeta vid spänningar som vida överstiger elektronernas naturliga ”termiska brus”. Denna ständiga kamp mot entropin – ansträngningen att upprätthålla perfekt ordning i ett kaotiskt fysiskt medium – medför en exorbitant energikostnad.
Varje logisk operation i en digital processor innebär laddning och urladdning av kondensatorer samt förflyttning av elektroner genom resistorer, vilket genererar restvärme som inte bidrar till beräkningen utan representerar energi som slösas bort i den ”friktion” som krävs för att påtvinga determinism. Som forskare påpekar ”betalar” konventionella system med energi för att undertrycka stokasticitet (slumpmässighet). Dessutom innebär den fysiska separationen mellan minne och processorenhet (von Neumann-flaskhalsen) att en stor del av energin går åt bara för att flytta data från en plats till en annan, snarare än att bearbeta den.
Det termodynamiska alternativet
Inför detta scenario föreslår termodynamisk beräkning en radikal omkastning av de operativa principerna. Istället för att spendera energi på att bekämpa termiskt brus, försöker denna disciplin utnyttja det som en beräkningsresurs. Den bygger på premissen att naturen räknar effektivt genom relaxationsprocesser mot termisk jämvikt. Genom att anpassa datorarkitekturen till informationens underliggande fysik blir det möjligt att utföra komplexa uppgifter – specifikt den sannolikhetssampling som krävs för generativ AI – med en effektivitet som är flera storleksordningar högre än hos digitala transistorer.
Detta tillvägagångssätt är inte enbart teoretiskt. Företag som Extropic och Normal Computing har börjat tillverka hårdvara som materialiserar dessa principer och utlovar effektiviteter upp till 10 000 gånger högre än dagens teknologier. Denna rapport analyserar ingående teknikens status, dess fysiska fundament, nyckelaktörerna samt de geopolitiska och ekonomiska konsekvenserna av en övergång till fysikbaserad beräkning.
Fysikaliska grunder: Från den deterministiska biten till den stokastiska p-biten
För att förstå vidden av den innovation som termodynamisk beräkning utgör, är det nödvändigt att gå ner på den fysiska nivån för kretsarnas funktion. Skillnaden mellan ett konventionellt chip och en termodynamisk samplingsenhet (TSU) är inte en gradskillnad, utan en ontologisk skillnad.
Icke-jämviktstermodynamik och beräkning
Den allmänna teorin som underbygger dessa framsteg är statistisk fysik utanför jämvikt, ofta kallad stokastisk termodynamik. Detta fält tillhandahåller verktygen för att analysera system som befinner sig långt från termisk jämvikt, såsom datorer. Inom klassisk databehandling följer man Landauers princip, som fastställer en teoretisk undre gräns för den energi som krävs för att radera en bit information, vilket avger värme till omgivningen. Termodynamisk beräkning opererar dock under andra dynamiker.
Termodynamiska enheter är designade för att utvecklas under Langevin-dynamik (dämpad eller underdämpad). Detta innebär att det fysiska systemet naturligt ”söker” sitt tillstånd av minimal energi. Om man kodar ett matematiskt problem i enhetens energilandskap, löser systemet problemet helt enkelt genom att slappna av (relaxera) mot sitt termiska jämviktstillstånd. I detta paradigm är beräkning inte en serie tvingade logiska steg, utan en naturlig fysisk process, analogt med hur en vattendroppe hittar den snabbaste vägen ner för ett berg eller hur ett protein veckar sig till sin optimala konfiguration.
Den probabilistiska biten (p-bit)
Den grundläggande enheten i denna nya arkitektur är p-biten (probabilistisk bit). Till skillnad från en digital bit, som är statisk tills den beordras att ändras, fluktuerar en p-bit kontinuerligt mellan 0 och 1 på nanosekundskalor, driven av det omgivande termiska bruset. Denna fluktuation är dock inte helt slumpmässig; den kan påverkas (bias) via styrspänningar så att p-biten tillbringar exempelvis 80 % av tiden i tillstånd 1 och 20 % i tillstånd 0.
Detta beteende imiterar sannolikhetsfördelningar. Genom att koppla samman flera p-bitar skapas en krets som representerar en komplex gemensam sannolikhetsfördelning. När man ”läser” kretsens tillstånd vid ett givet ögonblick, får man ett giltigt urval (sample) av den fördelningen. Detta är avgörande eftersom modern generativ AI fundamentalt handlar om sannolikheter: att förutsäga det mest sannolika nästa ordet eller generera den mest troliga pixeln i en bild.
Nativ sampling kontra digital simulering
Effektivitetsfördelen på ”10 000x” som Extropic proklamerar härrör från denna strukturella skillnad. I en digital (deterministisk) GPU kräver generering av ett slumpmässigt urval från en komplex fördelning exekvering av pseudo-slumpmässiga algoritmer (PRNG) som förbrukar tusentals klockcykler och miljontals transistoromslag. GPU:n måste simulera slumpen genom komplex deterministisk aritmetik.
Däremot genererar det termodynamiska chippet urvalet nativt. Det simulerar inte brus; bruset är motorn i beräkningen. Fysiken gör grovjobbet med att generera slumpmässigheten, vilket eliminerar behovet av komplexa aritmetiska logiska enheter (ALU) för just denna uppgift. Det är i grunden brusassisterad analog beräkning, där det fysiska mediet utför den matematiska operationen ögonblickligen.
Tabell: Jämförelse av operativa egenskaper
| Operativ egenskap | Digital beräkning (GPU/CPU) | Termodynamisk beräkning (TSU) |
| Basenhet | CMOS-transistor (Deterministisk switch) | p-bit (Stokastisk oscillator) |
| Relation till brus | Undertryckande (Brus = Fel) | Utnyttjande (Brus = Resurs/Bränsle) |
| Beräkningsmekanism | Sekventiell boolesk aritmetik | Fysisk relaxation till minimalt energitillstånd |
| Energiförbrukning | Hög (Kämpar mot termodynamiken) | Minimal (Flyter med termodynamiken) |
| Ideal tillämpning | Exakta beräkningar, exakt logik | Probabilistisk inferens, Optimering, GenAI |
Extropic: Arkitektur och osäkerhetens strategi
Extropic, baserat i USA, har positionerat sig som den kommersiella spjutspetsen för denna teknik. Grundat av Guillaume Verdon (tidigare fysiker på Google och känd i den digitala sfären som ”Beff Jezos”, ledare för rörelsen effektiv accelerationism eller e/acc) och Trevor McCourt, har företaget gått från teori till tillverkning av påtagligt kisel.
X0-chippet: Validering av probabilistiskt kisel
Extropics första konkreta milstolpe är X0-chippet. Denna enhet är en testprototyp designad för att validera att probabilistiska kretsar kan tillverkas med standardprocesser för halvledare och fungera vid rumstemperatur. Till skillnad från kvantdatorer som kräver temperaturer nära absoluta nollpunkten, använder X0 omgivningsvärmen som entropikälla.
X0 hyser en familj av kretsar designade för att generera urval från primitiva sannolikhetsfördelningar. Dess primära funktion har varit att bekräfta precisionen i Extropics brusmodeller: att demonstrera att man kan designa en transistor för att vara ”brusig” på ett förutsägbart och kontrollerbart sätt. Denna bedrift är betydande eftersom halvledarindustrin har ägnat 60 år åt att optimera processer för att eliminera brus; att återinföra det kontrollerat kräver en djup behärskning av materialfysik.
Utvecklingsplattformen XTR-0
För att möjliggöra för forskare och utvecklare att interagera med denna nya fysik har Extropic lanserat plattformen XTR-0. Detta system är inte en fristående dator, utan en hybridarkitektur. Fysiskt består den av ett trapetsformat moderkort som hyser en konventionell CPU och en FPGA, kopplad till två dotterkort som innehåller de termodynamiska X0-chippen.
Funktionen hos XTR-0 är att fungera som en brygga. CPU:n hanterar det generella arbetsflödet och den deterministiska logiken, medan FPGA:n agerar som en höghastighetsöversättare som skickar instruktioner och parametrar till X0-chippen och tar emot de genererade probabilistiska urvalen. Denna arkitektur erkänner en pragmatisk verklighet: termodynamiska datorer kommer inte att ersätta digitala för uppgifter som att köra ett operativsystem eller behandla ett kalkylblad. Deras roll är som specialiserade acceleratorer, analogt med hur GPU:er accelererar grafik, men dedikerade uteslutande till AI:s probabilistiska arbetsbelastning.
Z1-chippet och visionen om skalning
Extropics slutmål är inte X0, utan det framtida Z1-chippet. Det projiceras att denna enhet kommer att hysa hundratusentals eller miljontals sammankopplade p-bitar, vilket möjliggör körning av djupa generativa AI-modeller helt på det termodynamiska substratet. Simuleringar utförda av företaget antyder att detta chip skulle kunna utföra bild- eller textgenereringsuppgifter med 10 000 gånger mindre energi än en motsvarande GPU.
Z1:s arkitektur baseras på massiv lokal konektivitet. Till skillnad från GPU:er, där data färdas långa sträckor över chippet (vilket drar energi), är minne och beräkning sammanflätade i Extropics design. P-bitar interagerar endast med sina omedelbara grannar, vilket skapar ett nätverk av lokala interaktioner som tillsammans löser globala problem. Detta eliminerar en stor del av energikostnaden för dataförflyttning.
Nativa algoritmer: Den termodynamiska brusreduceringsmodellen (DTM)
Revolutionerande hårdvara kräver revolutionerande mjukvara. Att försöka köra standardalgoritmer för djupinlärning (baserade på deterministisk matrismultiplikation) på ett termodynamiskt chip vore ineffektivt. Därför har Extropic utvecklat en ny klass av nativa algoritmer.
Energibaserade modeller (EBM)
Den teoretiska basen för Extropics mjukvara är energibaserade modeller (Energy-Based Models eller EBM). Inom maskininlärning lär sig en EBM att associera låg ”energi” med data som verkar realistiska (som bilden av en katt) och hög energi med brus eller felaktiga data. Att generera data med en EBM innebär att hitta konfigurationer med låg energi.
EBM har existerat teoretiskt i decennier men föll i glömska till förmån för djupa neurala nätverk eftersom det är extremt långsamt att träna och använda dem på digitala datorer. De kräver en process som kallas Gibbs-sampling, vilket är beräkningsmässigt prohibitivt på en CPU eller GPU. Extropics chip utför dock Gibbs-sampling nativt och nästan omedelbart. Det som är en svaghet för digitalt kisel är den fundamentala styrkan hos termodynamiskt kisel.
Denoising Thermodynamic Model (DTM)
Extropics flaggskeppsalgoritm är den termodynamiska brusreduceringsmodellen (DTM). Denna modell fungerar på liknande sätt som moderna diffusionsmodeller (som de som driver Midjourney eller Stable Diffusion), vilka börjar med rent brus och gradvis förfinar det tills en tydlig bild erhålls.
Men medan en diffusionsmodell på en GPU matematiskt måste beräkna hur bruset ska tas bort steg för steg, använder DTM chippets fysik för att utföra transformationen. Den termodynamiska hårdvaran låter det ”brusiga” tillståndet fysiskt utvecklas mot det ”ordnade” tillståndet (den slutliga bilden) genom att följa termodynamikens lagar. Simuleringar indikerar att detta tillvägagångssätt inte bara är snabbare, utan kräver storleksordningar mindre energi eftersom processen med ”brusreducering” utförs av systemets naturliga tendens mot jämvikt, inte av biljoner flyttalsmultiplikationer.
Det konkurrerande ekosystemet: Skilda vägar inom fysikalisk beräkning
Även om Extropic har fångat mediernas uppmärksamhet med sina djärva påståenden och cyberpunk-estetik, är det inte den enda aktören på detta område. Kapplöpningen om termodynamisk och probabilistisk beräkning inkluderar andra sofistikerade konkurrenter som Normal Computing, var och en med distinkta tekniska och marknadsmässiga filosofier.
Normal Computing: Tillförlitlighet genom stokasticitet
Normal Computing, baserat i New York och grundat av tidigare ingenjörer från Google Brain och Alphabet X, angriper problemet från en något annorlunda vinkel. Medan Extropic fokuserar på hastighet och rå effektivitet för generering (accelerationism), lägger Normal betydande vikt vid tillförlitlighet, säkerhet och kvantifiering av osäkerhet i kritiska system.
Deras teknik baseras på den stokastiska processorenheten (SPU). Liksom Extropic använder de termiskt brus, men deras matematiska ramverk fokuserar på specifika stokastiska processer som Ornstein-Uhlenbeck-processen (OU). OU-processen är en stokastisk process med återgång till medelvärdet (mean-reverting), användbar för att modellera system som fluktuerar men tenderar att återvända till ett stabilt centrum.
Normal Computing har nått betydande milstolpar, såsom ”tape-out” (färdigställande av design för tillverkning) av sitt chip CN101. Detta chip är designat för att demonstrera genomförbarheten av den termodynamiska arkitekturen i riktigt kisel. Deras färdplan inkluderar de framtida chippen CN201 och CN301, avsedda att skala upp högupplösta diffusionsmodeller och video till 2027–2028.
Nyckelskillnad: Extropic verkar optimera för maximal entropi och generativ kreativitet till låg energikostnad (idealiskt för konst, text, idégenerering). Normal Computing verkar optimera för ”förklarbar AI” och tillförlitlighet, genom att använda probabilistisk hårdvara för att låta AI:n ”veta vad den inte vet” och hantera risker i affärs- eller industriapplikationer.
Neuromorfisk kontra termodynamisk beräkning
Det är avgörande att skilja termodynamisk beräkning från neuromorfisk beräkning (representerad av chip som IBM:s TrueNorth eller Intels Loihi). Neuromorfisk beräkning försöker imitera hjärnans biologiska arkitektur (neuroner, synapser, spänningsspikar) ofta med hjälp av deterministiska digitala eller analoga kretsar.
Termodynamisk beräkning, å andra sidan, imiterar hjärnans fysik. Den biologiska hjärnan opererar i en fuktig och brusig miljö vid 37°C och använder termiskt brus för att underlätta kemiska reaktioner och signalöverföring. Den kämpar inte mot bruset; den använder det. Extropic och Normal Computing menar att imitation av fysiken (termodynamik) är en mer direkt väg till effektivitet än att enbart imitera strukturen (neuromorfik).
Djupanalys av effektiviteten: Att dekonstruera ”10 000x”
Påståendet om en effektivitetsförbättring på 10 000 gånger är extraordinärt och kräver en rigorös teknisk granskning. Var exakt kommer denna siffra ifrån och är den realistisk i produktionsmiljöer?
Besparingens fysik
Energibesparingen kommer från tre huvudkällor:
- Eliminering av dataförflyttning: I en GPU förbrukar läsning av en modells vikter från VRAM-minnet mer energi än själva beräkningen. I Extropics TSU är modellens vikter fysiskt inkodade i kopplingarna mellan p-bitar. Beräkningen sker där datan finns.
- Passiv beräkning: I en digital krets tvingar klockan fram tillståndsövergångar miljontals gånger per sekund, vilket förbrukar aktiv energi i varje cykel. I en termodynamisk krets utvecklas systemet passivt mot lösningen. Energin tillförs till stor del av omgivningsvärmen (termiskt brus), som är ”gratis”.
- Samplingseffektivitet: Som diskuterat kräver generering av ett statistiskt urval digitalt tusentals operationer. Termodynamiskt är det en enda operation. Om en uppgift kräver att man tar miljontals urval (som vid videogenerering), ackumuleras fördelen linjärt tills den når storleksordningar.
Jämförelse av verklig förbrukning
För att sätta detta i perspektiv, låt oss betrakta träning och inferens av modeller av LLaMA-typ. Meta tränade LLaMA 3 med hjälp av 16 000 H100 GPU:er. Om vi antar en konservativ genomsnittsförbrukning uppgår energikostnaden till hundratals gigawattimmar. I inferensfasen (daglig användning), om miljontals användare ställer frågor till modellen, överstiger den ackumulerade förbrukningen träningens.
Om ett termodynamiskt chip kan utföra samma inferens genom att förbruka milliwatt istället för hundratals watt, förändras AI:s ekonomiska genomförbarhet radikalt. Det skulle möjliggöra körning av modeller på GPT-4-nivå på en smartphone utan att tömma batteriet på några minuter, eller utplacering av smarta sensorer inom jordbruket som fungerar i åratal på ett litet batteri.
Begränsningar och förbehåll
Siffran 10 000x härrör dock från simuleringar av specifika benchmarks optimerade för denna hårdvara. I blandade arbetsbelastningar, där deterministisk logik, dataförbehandling och kommunikation med CPU:n krävs, kommer den globala systemeffektiviteten (Amdahls lag) att vara lägre. Dessutom är analog precision till sin natur begränsad. För finansiella beräkningar som kräver exakt 64-bitars precision är termodynamisk beräkning olämplig. Dess nisch är probabilistisk inferens, inte exakt bokföring.
Tabell: Effektivitetslandskapet
| Effektivitetsmått | Digital GPU (H100) | Termodynamisk TSU (Projekterad) | Teoretisk förbättringsfaktor |
| Operationer per Joule | Begränsad av Landauer-barriären och CMOS-arkitektur | Begränsad endast av termiskt bakgrundsbrus | ~10^3 – 10^5 |
| Samplingslatens | Hög (kräver sekventiella PRNG-iterationer) | Mycket låg (fysiskt omedelbar) | ~100x – 1000x |
| Kretskomplexitet | Hög (miljontals transistorer för kontroll-logik) | Låg (enkla p-bitar och kopplingar) | Hög ytdensitet |
Utmaningar inom tillverkning och skalbarhet: Hårdvarans dödsskuggans dal
Datorhistorien är fylld av lovande teknologier (memristorer, optisk beräkning, spintronik) som misslyckades när de försökte skalas upp. Termodynamisk beräkning står inför betydande hinder för att ta sig ut ur laboratoriet.
Processvariabilitet och kalibrering
Den största utmaningen för Extropic och Normal Computing är homogenitet. Vid tillverkning av moderna chip (5nm eller 3nm-noder) finns det mikroskopiska variationer mellan transistorer. Digitalt hanteras detta med säkerhetsmarginaler. I det analoga/termodynamiska, där ”bruset” är signalen, förändrar en variation i transistorstorlek dess sannolikhetsprofil.
Om varje p-bit har en något annorlunda bias på grund av tillverkningsdefekter, kommer chippet inte att representera korrekt sannolikhetsfördelning. Att kalibrera miljontals individuella p-bitar för att kompensera för dessa variationer skulle kunna kräva massiva digitala styrkretsar, vilket skulle äta upp en del av energi- och utrymmesbesparingarna. Extropic hävdar att de löst detta med robusta kretsdesigner, men det verkliga testet kommer med massproduktionen av Z1-chippet.
Integration i mjukvaruekosystemet
Hårdvara är värdelös utan ett ekosystem. NVIDIA dominerar AI inte bara på grund av sina chip, utan på grund av CUDA, deras mjukvarulager. För att utvecklare ska anamma TSU:er måste den fysiska komplexiteten abstraheras bort. Extropic har lanserat Thrml, ett Python-bibliotek som låter utvecklare definiera energimodeller och köra dem i backend (vare sig simulerat på GPU eller på riktigt på XTR-0). Framgången kommer att bero på hur transparent denna integration är med PyTorch och TensorFlow. Om ML-ingenjörer måste lära sig statistisk fysik för att programmera chippet, kommer adoptionen att vara noll.
Konkurrensen från Moores lag
Den digitala teknologin står inte stilla. NVIDIA, AMD och Intel fortsätter att optimera sina arkitekturer för AI (t.ex. FP8-precision, Blackwell-arkitekturer). Termodynamisk beräkning jagar ett rörligt mål. När Z1-chippet når den kommersiella marknaden kommer konventionella GPU:er att ha förbättrat sin effektivitet. Fördelen på ”10 000x” är en stor buffert, men exekveringen måste ske snabbt för att inte missa möjlighetsfönstret.
Geopolitiska och ekonomiska konsekvenser
Framväxten av denna teknik har förgreningar som sträcker sig bortom serverrummet och påverkar nationell strategi och den globala AI-ekonomin.
AI-suveränitet och decentralisering
För närvarande är avancerad AI ett oligopol kontrollerat av entiteter som kan finansiera datacenter för miljarder dollar och få tillgång till begränsade leveranser av GPU:er. Eftersom termodynamisk beräkning drastiskt minskar energi- och hårdvarukostnader (genom att använda äldre och billigare kiseltillverkningsprocesser, då de inte kräver den senaste 3nm-litografin för att fungera), skulle det kunna demokratisera tillgången till ”superintelligens”.
Detta skulle möjliggöra för mindre nationer eller medelstora företag att driva sina egna grundmodeller utan att vara beroende av amerikanska hyperscalers moln (Microsoft, Google, Amazon). Det är en potentiell vektor för större teknologisk suveränitet.
Påverkan på elnätet och hållbarhet
IEA och regeringar är oroade över datacentrens förbrukning. På platser som Irland eller norra Virginia förbrukar datacenter tvåsiffriga procentandelar av det totala nätet. Termodynamisk beräkning erbjuder en ”säkerhetsventil” för detta tryck. Om industrin migrerar en del av sina inferensbelastningar till termodynamisk hårdvara, skulle man kunna frikoppla AI:s tillväxt från tillväxten av koldioxidavtrycket, vilket gör det möjligt att uppfylla klimatmål utan att bromsa tekniska framsteg.
Accelerationismens filosofi (e/acc)
Man kan inte ignorera den ideologiska komponenten. Guillaume Verdon, VD för Extropic, är en central gestalt i e/acc-rörelsen, som förespråkar obegränsade och snabba teknologiska framsteg som ett moraliskt och termodynamiskt imperativ för universum. Extropic är inte bara ett företag; det är den fysiska manifestationen av denna ideologi. De söker maximera universums produktion av entropi och intelligens. Detta står i kontrast till visioner om ”Inbromsning” eller ”AI-säkerhet” (Safetyism). Extropics framgång skulle vara en kulturell och teknisk seger för det accelerationistiska lägret i Silicon Valley.
Den naturliga intelligensens gryning
Termodynamisk beräkning representerar det hittills allvarligaste försöket att överbrygga klyftan mellan artificiell och naturlig beräkning. I sjuttio år har vi byggt datorer som fungerar som stela byråkratier: de följer exakta regler, arkiverar data på precisa platser och spenderar enorm energi på att säkerställa att inget avviker från normen. Under tiden har den mänskliga hjärnan – och naturen själv – opererat som en jazzmusiker: improviserat, använt brus och kaos som en del av melodin, och uppnått briljanta resultat med en häpnadsväckande energieffektivitet.
De teknologier som presenteras av Extropic och Normal Computing, genom enheter som X0 och CN101, antyder att vi är redo att anta detta andra tillvägagångssätt. Löftet om en energieffektivitet på 10 000x är inte bara en inkrementell förbättring; det är ettfasskifte som skulle möjliggöra artificiell intelligens överallt.
Vägen är dock kantad av tekniska risker. Övergången från digital determinism till termodynamisk probabilism kommer att kräva inte bara nya chip, utan en fullständig omskolning i hur vi tänker kring algoritmer, precision och beräkningens natur. Om Extropic lyckas skala upp sina p-bitar och Normal Computing lyckas certifiera säkerheten i sina stokastiska processer, är det möjligt att vi om ett decennium kommer att se på dagens GPU:er – dessa 700-watts kiselugnar – med samma nostalgi och förvåning som vi idag betraktar 1940-talets vakuumrör. Eran av att kämpa mot termodynamiken är över; eran av att räkna med den har börjat.
Det post-digitala beräkningslandskapet
| Dimension | Klassiskt digitalt tillvägagångssätt | Termodynamiskt tillvägagångssätt (Extropic/Normal) |
| Filosofi | Total kontroll, felundertryckande | Acceptans av kaos, användning av brus |
| Fysisk gräns | Värmeavledning, Moores lag | Fundamentala entropiska gränser |
| AI-modell | Djupa neurala nätverk (DNN) | Energibaserade modeller (EBM), Diffusion |
| Hårdvara | GPU, TPU (Hög effekt) | TSU, SPU (Låg effekt, Passiv) |
| Framtidsvision | Datacenter stora som städer | Allestädes närvarande, decentraliserad och ambient intelligens |
