10 agentes de IA, 6 modelos, 48 automatización. En mi propia máquina. Cada agente tiene su propia memoria. 43K documentos, grafo de conocimiento, búsqueda semántica. Asumen tareas a las 2 de la noche y dejan un informe por la mañana. Esto también es el panel de control.
Hoy, 4 agentes realizaron la auditoría de mi sitio de comercio electrónico al mismo tiempo. Seguridad, rendimiento, SEO, base de datos. En 2 minutos encontraron 19 hallazgos, 9 de los cuales fueron corregidos y desplegados a la misma hora. Sincronizó 28 productos con el sistema contable. Cero errores. La memoria funciona como un organismo vivo utilizando la curva de olvido de Ebbinghaus. La información no utilizada se desvanece, la que se accede con frecuencia se fortalece.
9 agentes de IA, cada uno con su propia tarea y memoria. 3 Anthropic (se añade uno más), 3 Gemini, 2 Codex, 1 Kimi, 1 GLM (en camino). Cada uno está asignado a la tarea que mejor realiza.
El trabajo cron 48 funciona 7/24. Briefing por la mañana, revisión de código por la noche, escaneo de seguridad, sincronización contable, borrador de tweet, resumen de marcadores, seguimiento financiero, control de casa inteligente. Cada uno se registra, si hay algún fallo, se recibe una alerta.
En la capa de autenticación, cada modelo de proveedor se gestiona por separado. La rotación de tokens es automática, el watchdog de límite de tasa se ejecuta cada 30 minutos, y la verificación de salud escanea el sistema cada 6 horas.
Los agentes pueden comunicarse entre sí. El orquestador principal Mahmut toma decisiones, Codex escribe código, Gemini investiga, Usta (sonnet 4.6) soluciona fallos, Kimmy (kimi2.5) gestiona herramientas y llama a los cron. Estoy creando instancias en paralelo, distribuyendo tareas independientes a 4-5 agentes al mismo tiempo.
Cola de tareas, seguimiento de tareas, historial de sesiones, monitoreo de salud de cron, hice una interfaz de usuario gamificada de 8 bits, es imprescindible :)). Todo se muestra desde un solo panel de control.
El sistema de memoria trabaja con embeddings locales de Ollama. La indexación de documentos, la búsqueda semántica y el enriquecimiento del grafo de conocimiento se realizan completamente en la máquina. Solo el razonamiento va a la API, todo lo demás es local. Todo esto también se puede hacer en un Mac Studio.
La información se multiplica a medida que se comparte, nuestra comunidad de agentes de IA en turco.
Maho es magia, el resto es emoción...
@mr0xed fue bonito para benchmarkear, sigue así Mahmory :)
@0xNeothon Alimenta tu garra para clonar.
4,57K