Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Det händer: autonom AI-forskning av AI-agenter på nanochat!
629 rader kod för att träna GPT-2. En markdown-fil som definierar forskningsagendan. Det är hela forskningslaboratoriet.
AI-forskare kan vara de första som ersätts av AI. Det mest underhållande resultatet är det mest sannolika.


5 timmar sedan
Jag paketerade "autoresearch"-projektet i ett nytt självständigt minimalistiskt repo om folk vill spela under helgen. Det är i princip nanochat LLM-träningskära nedskalad till en enda GPU, en filversion av ~630 rader kod, sedan:
- människan itererar på prompten (.md)
- AI-agenten itererar på träningskoden (.py)
Målet är att styra dina agenter så att de gör snabbast forskningsframsteg obegränsat och utan egen inblandning. På bilden är varje prick en komplett LLM-träningsrunda som varar exakt 5 minuter. Agenten arbetar i en autonom loop på en git-funktionsgren och samlar på sig git-commits till träningsskriptet när den hittar bättre inställningar (med lägre valideringsförlust i slutet) i neurala nätverksarkitekturen, optimeraren, alla hyperparametrar osv. Du kan föreställa dig att jämföra forskningsframstegen för olika prompts, olika agenter, etc.
Delvis kod, delvis sci-fi och en nypa psykos :)

Att kalla på GPT-5.4 xhigh och Claude Opus 4.6, ge dem 16 GPU:er och låta dem göra autonom forskning en solig lördag är oerhört tillfredsställande.
Det är också en ganska bra utvärdering av vilken modell som är bäst för forskare. Kanske lägger jag upp intressanta resultat imorgon.
36
Topp
Rankning
Favoriter
