Điều này đang xảy ra: nghiên cứu AI tự động bởi các tác nhân AI trên nanochat! 629 dòng mã để huấn luyện GPT-2. Một tệp markdown định nghĩa chương trình nghiên cứu. Đó là toàn bộ phòng thí nghiệm nghiên cứu. Các nhà nghiên cứu AI có thể là những người đầu tiên bị thay thế bởi AI. Kết quả giải trí nhất là kết quả có khả năng xảy ra nhất.
Andrej Karpathy
Andrej Karpathy5 giờ trước
Tôi đã đóng gói dự án "autoresearch" vào một kho lưu trữ tối thiểu tự chứa mới nếu mọi người muốn thử nghiệm vào cuối tuần. Nó cơ bản là lõi đào tạo LLM nanochat được rút gọn xuống phiên bản một tệp, một GPU với khoảng 630 dòng mã, sau đó: - con người lặp lại trên prompt (.md) - tác nhân AI lặp lại trên mã đào tạo (.py) Mục tiêu là thiết kế các tác nhân của bạn để đạt được tiến bộ nghiên cứu nhanh nhất vô hạn mà không cần sự tham gia của bạn. Trong hình, mỗi chấm là một lần chạy đào tạo LLM hoàn chỉnh kéo dài đúng 5 phút. Tác nhân làm việc trong một vòng lặp tự động trên một nhánh tính năng git và tích lũy các cam kết git vào kịch bản đào tạo khi nó tìm thấy các cài đặt tốt hơn (có độ mất mát xác thực thấp hơn vào cuối) của kiến trúc mạng nơ-ron, bộ tối ưu hóa, tất cả các siêu tham số, v.v. Bạn có thể tưởng tượng so sánh tiến bộ nghiên cứu của các prompt khác nhau, các tác nhân khác nhau, v.v. Một phần mã, một phần khoa học viễn tưởng, và một chút tâm thần :)
Gọi GPT-5.4 xhigh và Claude Opus 4.6, cung cấp cho chúng 16 GPU, và để chúng thực hiện nghiên cứu tự động vào một ngày thứ Bảy nắng đẹp thật sự rất thỏa mãn. Ngoài ra, đây cũng là một bài đánh giá khá tốt để xem mô hình nào là nhà nghiên cứu tốt hơn. Có thể sẽ đăng kết quả thú vị vào ngày mai.
35