Teknik

DeepSeek V4 kostar en femtedel av GPT-5 och körs utan Nvidia-chips

Det kinesiska laboratoriet som med R1 fick Nvidias aktiekurs att rasa återvänder med en större, markant billigare och för kinesisk hårdvara optimerad version. V4-Pro är den största öppna AI-modellen som någonsin har byggts; båda varianterna finns redan på Hugging Face under MIT-licens, och prislistan ligger långt under OpenAI och Anthropic.
Susan Hill

DeepSeek har släppt förhandsversionen av V4-Pro och V4-Flash — två språkmodeller med öppen källkod som driver en konkret tes: att hantera en miljon tokens kontext är inte längre ett kapacitetsproblem, utan en fråga om effektivitet. V4-Pro samlar 1,6 biljoner parametrar totalt, varav 49 miljarder är aktiva per förfrågan — tillräckligt för att bearbeta en hel kodbas eller en fullständig bok i en enda prompt. För första gången konkurrerar en öppen modell seriöst med de bästa slutna modellerna i matematik, programmering och agentuppgifter — till en bråkdel av kostnaden.

Båda modellerna kommer med MIT-licens, och vikterna är redan publicerade på Hugging Face. V4-Flash är den effektiva varianten med 284 miljarder parametrar totalt och 13 miljarder aktiva — kompakt nog för att en kvantiserad version ska kunna köras på en bärbar dator i den högre klassen. V4-Pro är flaggskeppet: 865 gigabyte på disk, avsedd för molndistribution och forskningslaboratorier. Båda delar samma kontextfönster på en miljon tokens — ett språng som matchar Googles Gemini och fördubblar vad de flesta konkurrerande öppna modellerna erbjuder.

YouTube video

Det arkitektoniska nyckelgreppet heter Hybrid Attention: DeepSeek kombinerar två kompressionstekniker och pressar ned minneskostnaderna så aggressivt att V4-Pro vid samma kontextlängd endast använder 27 procent av beräkningskraften och 10 procent av cachen som V3.2 krävde. V4-Flash går ännu längre. Konkret innebär det: att servera en prompt på en miljon tokens med V4-Pro kostar idag mindre än att servera en på 100 000 med föregående generation. Det är inte en teknisk detalj — det är den ekonomiska förutsättningen för att långkontextmodeller ska sluta vara laboratoriedemonstrationer och bli kommersiellt användbara produkter.

Prisgenombrottet är den punkt där lanseringen slår hårdast. V4-Flash prissätts till 0,14 dollar per miljon input-tokens — under till och med OpenAIs GPT-5.4 Nano. V4-Pro kostar 1,74 dollar per miljon input-tokens och 3,48 dollar per miljon output-tokens — en tredjedel av vad Anthropic tar för Claude Opus 4.7 och en femtedel av vad OpenAI tar för GPT-5.5. I programmeringsbenchmarks når V4-Pro en Codeforces-rating på 3 206 — enligt DeepSeek ett värde som skulle placera modellen på 23:e plats bland mänskliga tävlingsprogrammerare i världen.

Den geopolitiska läsningen väger lika tungt som benchmarken. DeepSeek har optimerat V4 för Huaweis Ascend 950-chips och för kisel från den kinesiska AI-tillverkaren Cambricon, och har inte gett Nvidia eller AMD tidig åtkomst för att finslipa prestandan — en omvändning av branschens standardpraxis. Lanseringen fungerar som kommersiellt stresstest för hela den kinesiska teknikkedjan, som i åratal har arbetat under Washingtons exportrestriktioner. För Europa blir frågan mer obekväm: medan Peking bygger en komplett suverän kedja — öppna vikter, inhemska chip, egen inferensprogramvara — och Washington låser sin genom lagstiftning, förblir europeisk digital suveränitet strukturellt beroende av de två blockens infrastruktur.

Det finns reella invändningar. V4 är en förhandsversion, inte en produktionsversion, och oberoende tredjepartsbenchmarks har ännu inte genomförts. DeepSeeks egen tekniska rapport medger att modellen ligger tre till sex månader bakom GPT-5.4 och Gemini 3.1 Pro i frontkapacitet. Föregångaren R1 förbjöds eller begränsades några veckor efter lanseringen i flera amerikanska delstater, Australien, Taiwan, Sydkorea, Danmark och Italien — V4 ärver exakt samma regulatoriska exponering i dessa marknader. Pentagonleverantörer har dessutom förbud mot att använda DeepSeek-modeller enligt den amerikanska NDAA-lagen från 2026, såvida inte uttrycklig dispens beviljas.

Utanför dessa begränsade zoner är åtkomsten omedelbar. DeepSeeks webbaserade chatbot exponerar V4-Pro genom Expert-läget och V4-Flash genom Instant-läget utan kostnad, och utvecklare kan anropa API:et genom att helt enkelt byta modellnamnet till deepseek-v4-pro eller deepseek-v4-flash.

Lanseringen inföll exakt ett år efter att DeepSeek-R1 skakade de globala AI-marknaderna den 20 januari 2025 — kalendern är medvetet vald. Den slutliga API-prissättningen efter förhandsfasen är fortfarande oklar, och de gamla slutpunkterna deepseek-chat och deepseek-reasoner avvecklas den 24 juli 2026, då all trafik automatiskt dirigeras vidare till V4. Det som står på spel här sträcker sig bortom den enskilda benchmarken: det är första offentliga beviset på att en konkurrerande stormakt kan leverera en komplett, konkurrenskraftig och billig AI-stack utan amerikanska leverantörer — och enbart det beviset ritar om kartan för varje suverän AI-strategi framöver.

Diskussion

Det finns 0 kommentarer.