So sieht es aus, ein kreatives Studio für KI zu leiten.
Ich habe meinem Orchestrierungssystem ein Referenzbild gegeben und es angewiesen, drei verschiedene Interpretationen auf drei Maschinen, die gleichzeitig Blender ausführen, bereitzustellen, alle sichtbar von einem einzigen Dashboard aus.
Wenn eine Richtung vielversprechend aussieht, verzweige ich davon. Das System kopiert die Dateien auf die anderen Maschinen und erkundet von diesem neuen Ausgangspunkt weiter. Verzweigen, leiten, erneut verzweigen. Jede Teilung eröffnet einen neuen kreativen Weg, während ich in Echtzeit Anmerkungen gebe.
Die Anzahl der kreativen Richtungen, die ich gleichzeitig erkunden kann, ist nur durch die Anzahl der Computer, die ich habe, begrenzt.
Vor ein paar Wochen habe ich Opus 4.6 ein Paket von Bühnenassets in Unreal Engine gegeben, es hat alle Beispiellevel analysiert und dann gesagt, es solle eine Bühne bauen.
Es hat das Ganze zusammengebaut, seine eigene Arbeit aus mehreren Kamerawinkeln überprüft, und als ich ihm Anmerkungen gegeben habe (Träger zu kurz, Treppen durch eine Menschenmenge schneidend), hat es alles autonom behoben.
Es ist seitdem viel besser geworden.
Ich habe ein agentisches System entwickelt, das sich selbst das Blender-Donut-Tutorial beigebracht hat, indem es es auf YouTube angesehen hat.
Es hat die Tutorials angesehen, die Schritte extrahiert, die Lücken in den eigenen Werkzeugen gefüllt und das gesamte Projekt autonom abgeschlossen.