Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
10 agent AI, 6 modelli, 48 automazione. Sul mio computer.
Ogni agent ha una memoria separata. 43K documenti, knowledge graph, ricerca semantica. Lavorano alle 2 di notte e lasciano un rapporto al mattino.
Questo è il dashboard.

Oggi 4 agenti hanno effettuato contemporaneamente l'audit del mio sito di e-commerce. Sicurezza, prestazioni, SEO, database. In 2 minuti hanno trovato 19 risultati, 9 dei quali sono stati corretti e distribuiti nello stesso momento.
Ha sincronizzato 28 prodotti con il sistema contabile. Zero errori.
La memoria utilizza il decadimento di Ebbinghaus come un organismo vivente. Le informazioni non utilizzate svaniscono, quelle frequentemente accessibili si rafforzano.
9 agenti AI, ognuno con il proprio compito e memoria. 3 Anthropic (ne verrà aggiunto un altro), 3 Gemini, 2 Codex, 1 Kimi, 1 GLM (in arrivo). Ognuno è assegnato al compito per cui è più adatto.
48 cron job gira 7/24. Briefing del mattino, rotazione del codice notturna, scansione di sicurezza, sincronizzazione contabile, bozza di tweet, riepilogo dei segnalibri, monitoraggio finanziario, controllo della casa intelligente. Ognuno di essi viene registrato, se fallisce arriva un avviso.
Nel livello di autenticazione, ogni modello di provider è gestito separatamente. La rotazione dei token è automatica, il watchdog del rate limit funziona ogni 30 minuti, il controllo della salute esegue una scansione del sistema ogni 6 ore.
Gli agenti possono comunicare tra loro. L'orchestratore principale Mahmut prende le decisioni, Codex scrive codice, Gemini fa ricerche, Usta (sonetto 4.6) risolve i problemi, Kimmy (kimi2.5) gestisce gli strumenti e chiama i cron. Sto spawnando in parallelo, distribuisco compiti indipendenti a 4-5 agenti contemporaneamente.
Ho creato un'interfaccia utente gamificata a 8 bit per il monitoraggio della coda delle attività, il tracciamento delle cose da fare, la cronologia delle sessioni e il monitoraggio della salute del cron. Tutto è visibile da un unico dashboard.

Il sistema di memoria lavora con gli embedding locali di Ollama. L'indicizzazione dei documenti, la ricerca semantica e il potenziamento del grafo della conoscenza avvengono tutte localmente. Solo il ragionamento va all'API, tutto il resto è locale.
Tutto questo avviene su un Mac Studio.
Le informazioni si moltiplicano man mano che le condividiamo nella nostra comunità di agenti AI in turco.
Maho è magia, il resto è emozione...

È stato bello continuare con Mahmory per fare benchmark :)

@0xNeothon Nutri il tuo artiglio per clonare.
4,6K
Principali
Ranking
Preferiti
