Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¡Está ocurriendo: investigación autónoma de IA por agentes de IA en nanochat!
629 líneas de código para entrenar GPT-2. Un archivo de descuento que define la agenda de investigación. Eso es todo el laboratorio de investigación.
Los investigadores en IA podrían ser los primeros reemplazados por la IA. El resultado más entretenido es el más probable.


hace 3 horas
Empaqueté el proyecto de "autoinvestigación" en un nuevo repositorio mínimo autónomo por si la gente quiere jugar el fin de semana. Básicamente es un núcleo de entrenamiento de LLM nanochat reducido a una sola GPU y un solo archivo de ~630 líneas de código, y luego:
- el humano itera en el prompt (.md)
- el agente de IA itera sobre el código de entrenamiento (.py)
El objetivo es diseñar a tus agentes para que avancen la investigación más rápido de forma indefinida y sin ninguna de tus propias intervenciones. En la imagen, cada punto es una partida completa de entrenamiento LLM que dura exactamente 5 minutos. El agente trabaja en un bucle autónomo en una rama de características git y acumula commits git en el script de entrenamiento a medida que encuentra mejores configuraciones (de menor pérdida de validación al final) de la arquitectura de la red neuronal, el optimizador, todos los hiperparámetros, etc. Puedes imaginarte comparando el progreso de la investigación de diferentes prompts, distintos agentes, etc.
Parte código, parte ciencia ficción y un toque de psicosis :)

Invocar a GPT-5.4 xhigh y Claude Opus 4.6, darles 16 GPUs y dejarles hacer investigación autónoma en un sábado soleado es extremadamente satisfactorio.
Además, es una evaluación bastante buena para saber qué modelo es el mejor investigador. Quizá mañana publique resultados interesantes.
17
Populares
Ranking
Favoritas
