To się dzieje: autonomiczne badania AI przez agentów AI na nanochacie! 629 linii kodu do trenowania GPT-2. Jeden plik markdown definiujący agendę badawczą. To całe laboratorium badawcze. Badacze AI mogą być pierwszymi, którzy zostaną zastąpieni przez AI. Najbardziej rozrywkowy wynik jest najbardziej prawdopodobny.
Andrej Karpathy
Andrej Karpathy5 godz. temu
Spakowałem projekt "autoresearch" do nowego, samodzielnego minimalnego repozytorium, jeśli ktoś chciałby się pobawić w weekend. To w zasadzie rdzeń treningowy nanochat LLM, uproszczony do wersji na jeden GPU, w jednym pliku o długości ~630 linii kodu, a następnie: - człowiek iteruje nad promptem (.md) - agent AI iteruje nad kodem treningowym (.py) Celem jest zaprojektowanie swoich agentów, aby osiągały najszybszy postęp w badaniach w nieskończoność, bez jakiegokolwiek twojego zaangażowania. Na obrazku każda kropka to pełne uruchomienie treningu LLM, które trwa dokładnie 5 minut. Agent działa w autonomicznej pętli na gałęzi funkcji git i gromadzi commity git do skryptu treningowego, gdy znajduje lepsze ustawienia (o niższej stracie walidacyjnej na końcu) architektury sieci neuronowej, optymalizatora, wszystkich hiperparametrów itd. Możesz sobie wyobrazić porównywanie postępu badań różnych promptów, różnych agentów itd. Część kodu, część sci-fi i szczypta psychozy :)
Przywołanie GPT-5.4 xhigh i Claude Opus 4.6, dając im 16 GPU i pozwalając im na autonomiczne badania w słoneczną sobotę, jest niezwykle satysfakcjonujące. To także całkiem dobra ocena, który model jest lepszym badaczem. Może jutro opublikuję interesujące wyniki.
28