Slik ser det ut å lede et AI-kreativt studio.
Jeg ga orkestreringssystemet mitt et referansebilde og lot det distribuere tre forskjellige tolkninger på tre maskiner som kjører Blender samtidig, alle synlige fra ett enkelt dashbord.
Når én retning ser lovende ut, forgrener jeg meg fra den. Systemet kopierer filene til de andre maskinene og fortsetter å utforske fra det nye utgangspunktet. Gren, direkte, gren igjen. Hver splitt åpner en ny kreativ vei mens jeg gir tilbakemeldinger i sanntid.
Antallet kreative retninger jeg kan utforske samtidig er bare begrenset av hvor mange datamaskiner jeg har.
For noen uker siden ga jeg Opus 4.6 en pakke med stage-assets i Unreal Engine, fikk det til å analysere alle eksempelnivåene, og ba det deretter bygge et nivå.
Den satte sammen hele greia, sjekket sitt eget arbeid fra flere kameravinkler, og da jeg ga den tilbakemeldinger (sperrer for korte, trapper som klipper gjennom en folkemengdebarriere) fikset den alt automatisk.
Det har blitt mye bedre siden da
Jeg bygde et agentisk system som lærte seg Blender-donut-tutorialen ved å se den på YouTube.
Den så på opplæringene, hentet ut stegene, fylte hullene i sitt eget verktøy og fullførte hele prosessen autonomt.