> 385 ms genomsnittligt verktygsval. > 67 verktyg fördelade på 13 MCP-servrar. > 14,5 GB minnesanvändning. > Inga nätverkssamtal. LocalCowork är en AI-agent som körs på en MacBook. Öppen källkod. 🧵
Att bygga en lokal AI-agent låter bra tills du försöker använda en hela dagen. Det svåra är att inte få en modell att förstå dig. Det handlar om att få den att välja rätt verktyg och göra det tillräckligt snabbt för att upplevelsen ska kännas interaktiv. Så vi testade LFM2-24B-A2B på bärbara datorer och byggde en öppen källkods-skrivbordsagent kallad LocalCowork.
Allt körs lokalt: > modellen > verktygen > datan Inget moln. Inga API-nycklar. Inget lämnar maskinen.
Vi utvärderade modellen i en realistisk uppställning: > 67 verktyg > 13 MCP-servrar Uppgifter som säkerhetsskanningar, dokumenthantering, filsystemoperationer och systemverktyg. Alla körs på en enda Apple M4 Max-laptop med 36GB minne. I denna konfiguration hade LFM2-24B-A2B i genomsnitt ~385 ms per verktygsvalsrespons samtidigt som den rymde ~14,5 GB minne. Det betyder: > inga utgående API-anrop > inga leverantörssubprocessorer > inga data som lämnar enheten
155