Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Jag paketerade "autoresearch"-projektet i ett nytt självständigt minimalistiskt repo om folk vill spela under helgen. Det är i princip nanochat LLM-träningskära nedskalad till en enda GPU, en filversion av ~630 rader kod, sedan:
- människan itererar på prompten (.md)
- AI-agenten itererar på träningskoden (.py)
Målet är att styra dina agenter så att de gör snabbast forskningsframsteg obegränsat och utan egen inblandning. På bilden är varje prick en komplett LLM-träningsrunda som varar exakt 5 minuter. Agenten arbetar i en autonom loop på en git-funktionsgren och samlar på sig git-commits till träningsskriptet när den hittar bättre inställningar (med lägre valideringsförlust i slutet) i neurala nätverksarkitekturen, optimeraren, alla hyperparametrar osv. Du kan föreställa dig att jämföra forskningsframstegen för olika prompts, olika agenter, etc.
Delvis kod, delvis sci-fi och en nypa psykos :)

Topp
Rankning
Favoriter
