Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Andrej Karpathy
Membangun @EurekaLabsAI. Sebelumnya Direktur AI @ Tesla, tim pendiri @ OpenAI, CS231n/PhD @ Stanford. Saya suka melatih jaring saraf dalam yang besar.
Saya memiliki pemikiran yang sama jadi saya telah memainkannya di nanochat. Misalnya ini adalah 8 agen (4 claude, 4 codex), dengan masing-masing 1 GPU menjalankan eksperimen nanochat (mencoba menghapus softcap logit tanpa regresi). TLDR adalah tidak berfungsi dan berantakan... Tapi masih sangat indah untuk dilihat :)
Saya mencoba beberapa pengaturan: 8 peneliti solo independen, 1 kepala ilmuwan yang memberikan pekerjaan kepada 8 peneliti junior, dll. Setiap program penelitian adalah cabang git, setiap ilmuwan mencabang ke dalam cabang fitur, pohon kerja git untuk isolasi, file sederhana untuk komunikasi, lewati Docker/VM untuk kesederhanaan atm (saya menemukan bahwa instruksi sudah cukup untuk mencegah gangguan). Organisasi penelitian berjalan dalam kisi jendela sesi interaktif (seperti Teams) sehingga cantik untuk dilihat, melihat pekerjaan masing-masing, dan "mengambil alih" jika diperlukan, yaitu tidak ada -p.
Tapi ok alasan itu tidak berhasil sejauh ini adalah karena ide-ide agen cukup buruk di luar kotak, bahkan pada kecerdasan tertinggi. Mereka tidak berpikir dengan hati-hati meskipun desain eksperimen, mereka menjalankan variasi yang sedikit tidak masuk akal, mereka tidak membuat garis dasar yang kuat dan membuang hal-hal dengan benar, mereka tidak mengontrol runtime atau kegagalan dengan hati-hati. (Hanya sebagai contoh, seorang agen kemarin "menemukan" bahwa meningkatkan ukuran jaringan tersembunyi meningkatkan kehilangan validasi, yang merupakan hasil yang benar-benar palsu mengingat bahwa jaringan yang lebih besar akan memiliki kehilangan validasi yang lebih rendah dalam rezim data tak terbatas, tetapi kemudian juga berlatih lebih lama, tidak jelas mengapa saya harus datang untuk menunjukkannya). Mereka sangat pandai dalam mengimplementasikan ide yang dicakupan dengan baik dan dijelaskan tetapi mereka tidak menghasilkannya secara kreatif.
Tetapi tujuannya adalah bahwa Anda sekarang memprogram organisasi (misalnya "organisasi penelitian") dan agennya masing-masing, jadi "kode sumber" adalah kumpulan petunjuk, keterampilan, alat, dll. dan proses yang membentuknya. Misalnya, standup harian di pagi hari sekarang menjadi bagian dari "kode organisasi". Dan mengoptimalkan prapelatihan nanochat hanyalah salah satu dari banyak tugas (hampir seperti eval). Kemudian - diberi tugas sewenang-wenang, seberapa cepat organisasi penelitian Anda menghasilkan kemajuan di dalamnya?

Thomas Wolf28 Feb 2026
Mengapa tantangan speedrun NanoGPT belum sepenuhnya penelitian otomatis AI sekarang?
854
Dengan tsunami permintaan token yang akan datang, ada peluang signifikan untuk mengatur memori+komputasi yang mendasarinya *tepat* untuk LLM.
Kendala mendasar dan tidak jelas adalah bahwa karena proses fabrikasi chip, Anda mendapatkan dua kumpulan memori yang sama sekali berbeda (dari implementasi fisik yang berbeda juga): 1) SRAM on-chip yang berada tepat di sebelah unit komputasi yang sangat cepat tetapi berkapasitas sangat rendah, dan 2) DRAM off-chip yang memiliki kapasitas yang sangat tinggi, tetapi isinya hanya bisa Anda hisap melalui sedotan panjang. Selain itu, ada banyak detail arsitektur (misalnya susunan sistolik), numerik, dll.
Desain substrat fisik yang optimal dan kemudian orkestrasi memori+komputasi di seluruh alur kerja volume teratas LLM (prefill/decode inference, pelatihan/finetuning, dll.) dengan throughput/latensi/$ terbaik mungkin merupakan teka-teki intelektual paling menarik saat ini dengan imbalan tertinggi (\cite 4.6T dari NVDA). Semua itu untuk mendapatkan banyak token, cepat dan murah. Bisa dibilang, alur kerja yang mungkin paling penting (dekode inferensi *dan* melalui konteks token yang panjang dalam loop agen yang ketat) adalah yang paling sulit dicapai secara bersamaan oleh ~kedua kubu dari apa yang ada saat ini (NVIDIA pertama HBM yang berdekatan dan Cerebras yang pertama SRAM yang berdekatan). Bagaimanapun, tim MatX adalah kelas A++ jadi senang saya memiliki sedikit keterlibatan dan selamat atas kenaikan gajinya!

Reiner Pope25 Feb 2026
Kami membangun chip LLM yang memberikan throughput yang jauh lebih tinggi daripada chip lain sekaligus mencapai latensi terendah. Kami menyebutnya MatX One.
Chip MatX One didasarkan pada susunan sistolik yang dapat dipisahkan, yang memiliki energi dan efisiensi area yang terkenal dengan susunan sistolik besar, sementara juga mendapatkan pemanfaatan tinggi pada matriks yang lebih kecil dengan bentuk yang fleksibel. Chip ini menggabungkan latensi rendah dari desain SRAM-first dengan dukungan HBM konteks panjang. Elemen-elemen ini, ditambah pandangan baru pada numerik, memberikan throughput yang lebih tinggi pada LLM daripada sistem yang diumumkan, sekaligus mencocokkan latensi desain SRAM-first. Throughput yang lebih tinggi dan latensi yang lebih rendah memberi Anda model yang lebih cerdas dan lebih cepat untuk dolar langganan Anda.
Kami telah mengumpulkan Seri B senilai $500 juta untuk menyelesaikan pengembangan dan menskalakan manufaktur dengan cepat, dengan tapeout dalam waktu kurang dari setahun. Putaran ini dipimpin oleh Jane Street, salah satu perusahaan Wall Street yang paling paham teknologi, dan Situational Awareness LP, yang pendirinya @leopoldasch menulis memo definitif tentang AGI. Peserta antara lain dana @sparkcapital, @danielgross dan @natfriedman, @patrickc dan @collision, @TriatomicCap, @HarpoonVentures, @karpathy, @dwarkesh_sp, dan lain-lain. Kami juga menyambut investor di seluruh rantai pasokan, termasuk Marvell dan Alchip.
@MikeGunter_ dan saya memulai MatX karena kami merasa bahwa chip terbaik untuk LLM harus dirancang dari prinsip pertama dengan pemahaman mendalam tentang apa yang dibutuhkan LLM dan bagaimana mereka akan berkembang. Kami bersedia menyerah pada kinerja model kecil, beban kerja volume rendah, dan bahkan kemudahan pemrograman untuk menghadirkan chip semacam itu.
Kami sekarang adalah tim beranggotakan 100 orang dengan orang-orang yang memikirkan segala hal mulai dari jadwal tingkat pembelajaran, hingga Penjadwalan Modulo Ayunan, hingga bagian penjaga/bulat/lengket, hingga koneksi buta—semuanya di gedung yang sama. Jika Anda ingin membantu kami merancang, merancang, dan menerapkan banyak generasi chip dalam volume besar, pertimbangkan untuk bergabung dengan kami.
456
Teratas
Peringkat
Favorit
