Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Det skjer: autonom AI-forskning utført av AI-agenter på nanochat!
629 linjer kode for å trene GPT-2. En markdown-fil som definerer forskningsagendaen. Det er hele forskningslaboratoriet.
KI-forskere kan være de første som blir erstattet av KI. Det mest underholdende utfallet er det mest sannsynlige.


5 timer siden
Jeg pakket sammen "autoresearch"-prosjektet i et nytt, selvstendig minimalt repo hvis folk vil spille i helgen. Det er i bunn og grunn nanochat LLM-treningskjerne strippet ned til en enkelt-GPU, én fil-versjon med ~630 linjer kode, og så:
- mennesket itererer på prompten (.md)
- AI-agenten itererer på treningskoden (.py)
Målet er å få agentene dine til å oppnå raskest mulig forskningsfremgang på ubestemt tid og uten egen involvering. På bildet er hver prikk en komplett LLM-trening som varer nøyaktig 5 minutter. Agenten jobber i en autonom sløyfe på en git-funksjonsgren og akkumulerer git-commits til treningsskriptet etter hvert som den finner bedre innstillinger (med lavere valideringstap mot slutten) i den nevrale nettverksarkitekturen, optimalisatoren, alle hyperparameterne osv. Du kan tenke deg å sammenligne forskningsfremdriften til ulike prompts, forskjellige agenter osv.
Delvis kode, delvis sci-fi, og en klype psykose :)

Å tilkalle GPT-5.4 xhigh og Claude Opus 4.6, gi dem 16 GPU-er, og la dem gjøre autonom forskning på en solrik lørdag, er ekstremt tilfredsstillende.
Det er også en ganske god vurdering av hvilken modell som er den beste forskeren. Kanskje jeg legger ut interessante resultater i morgen.
33
Topp
Rangering
Favoritter
