Teknik

Ollama 0.22.1 kör Gemma 4 tool calling på din laptop utan API-nyckel

Susan Hill

Ollama 0.22.1 levererar en uppdaterad Gemma 4-renderare som äntligen stödjer de två funktioner som spelade roll för riktigt arbete med lokal AI: explicit tankeläge och funktionsanrop, alltså tool calling. Tool calling låter modellen själv avgöra när den ska anropa en extern funktion — hämta en webbsida, ställa en fråga till en databas, köra en uträkning — och flätar sedan in resultatet i sitt eget resonemang. Tankeläget visar modellens mellansteg så att en applikation kan plocka upp dem och agera på dem. Båda har varit funktioner som de stora moln-API:erna tog betalt för. Båda körs nu lokalt mot Gemma 4 utan att någon extern tjänst är inblandad.

Det som får den här nyheten att väga tyngre än ännu en modelllansering är räknemattan på hårdvaran. Gemma 4-familjen som Google släppte under Apache-2.0-licens täcker fyra storlekar: E2B, E4B, 26B A4B och 31B. De mindre varianterna går att köra på en någorlunda färsk laptop med integrerad grafik och tolv till sexton gigabyte RAM. Versionerna 26B A4B och 31B kräver en stationär GPU, men håller sig fortfarande klart inom konsumentterritoriet. Samma arkitektur som tidigare krävde ett betalt API-avtal eller en hemserver i fyrsiffrigt prisläge blir därmed en installation på en lördag eftermiddag för vem som helst med en någorlunda modern maskin.

Den praktiska följden för dem som inte programmerar är att en hel klass av agentapplikationer — de som läser din e-post, författar svar, hämtar dokument, fyller i formulär, sammanfattar möten — inte längre måste skicka de uppgifterna till en tredjepartsserver. En användare som värnar om sin integritet och ville ha riktig agentautomation hade hittills två alternativ: lita på en molnleverantörs datapolicy, eller köra en mycket svagare modell lokalt utan tool calling. Mellanvägen var ett hål, och Ollama 0.22.1 fyller det för Gemma 4-klassen.

Den skeptiska läsningen är att Ollama och Gemma 4 inte är motsvarigheter till frontlinjen i molnet. En lokalt körd 31B-modell når inte upp till Anthropics Claude eller OpenAIs GPT-5 vid komplex resonemang. Träffsäkerheten i verktygsanrop över långa kedjor är märkbart sämre i de mindre varianterna. Multimodala inmatningar fungerar, men långsammare. Och integrationsbördan ligger hos användaren: ingen har ännu byggt en tillräckligt välputsad Gemma 4 plus Ollama-agentapp som kan tävla med ett färdigt SaaS-flöde. Hårdvarutaket och programvarans finputs är fortfarande verkliga luckor.

Versionen finns tillgänglig nu via Ollamas standardinstallationsprogram för macOS, Linux och Windows. Gemma 4-vikterna ligger i Ollamas modellbibliotek under namnrymden gemma4, och runtime-ändringen i 0.22.1 slår igenom automatiskt för vilken storlek som helst när den väl hämtats hem.

Diskussion

Det finns 0 kommentarer.