Tak wygląda kierowanie kreatywnym studiem AI.
Dałem mojemu systemowi orkiestracji obraz referencyjny i kazałem mu wdrożyć trzy różne interpretacje na trzech maszynach uruchamiających Blendera jednocześnie, wszystkie widoczne z jednego pulpitu nawigacyjnego.
Kiedy jeden kierunek wydaje się obiecujący, rozwidlam się z niego. System kopiuje pliki na inne maszyny i kontynuuje eksplorację z tego nowego punktu wyjścia. Rozwidlenie, kierowanie, ponowne rozwidlenie. Każde rozdzielenie otwiera nową kreatywną ścieżkę, podczas gdy na bieżąco przekazuję uwagi.
Liczba kreatywnych kierunków, które mogę jednocześnie eksplorować, jest ograniczona tylko przez to, ile mam komputerów.
Kilka tygodni temu dałem Opus 4.6 zestaw zasobów scenicznych w Unreal Engine, kazałem mu przeanalizować wszystkie przykładowe poziomy, a potem powiedziałem, żeby zbudował scenę.
Złożył wszystko, sprawdził swoją pracę z różnych kątów kamery, a kiedy dałem mu uwagi (zbyt krótkie dźwigary, schody wchodzące w barierę tłumu), naprawił wszystko autonomicznie.
Od tego czasu znacznie się poprawił.
Zbudowałem system agentowy, który nauczył się samodzielnie tutorialu o donucie w Blenderze, oglądając go na YouTube.
Oglądał tutoriale, wyodrębnił kroki, uzupełnił luki w swoim narzędziu i zrealizował całość autonomicznie.