Ecco come si presenta la direzione di uno studio creativo AI.
Ho dato al mio sistema di orchestrazione un'immagine di riferimento e l'ho fatto distribuire tre diverse interpretazioni su tre macchine che eseguono Blender simultaneamente, tutte visibili da un'unica dashboard.
Quando una direzione sembra promettente, mi dirigo in quella direzione. Il sistema copia i file sulle altre macchine e continua a esplorare da quel nuovo punto di partenza. Dirama, dirige, dirama di nuovo. Ogni divisione apre un nuovo percorso creativo mentre fornisco note in tempo reale.
Il numero di direzioni creative che posso esplorare simultaneamente è limitato solo dal numero di computer che ho.
Qualche settimana fa ho dato a Opus 4.6 un pacchetto di risorse per il palcoscenico in Unreal Engine, l'ho fatto analizzare tutti i livelli di esempio, poi gli ho detto di costruire un palcoscenico.
Ha assemblato tutto, ha controllato il proprio lavoro da più angolazioni della telecamera e quando gli ho dato delle note (travi troppo corte, scale che attraversano una barriera per il pubblico) ha corretto tutto autonomamente.
È migliorato molto da allora.
Ho costruito un sistema agentico che ha imparato autonomamente il tutorial del donut di Blender guardandolo su YouTube.
Ha guardato i tutorial, estratto i passaggi, colmato le lacune nei propri strumenti e completato l'intero processo in modo autonomo.