podejrzewam, że jednym z ostatnich dużych brakujących elementów na drodze do AGI jest prawdziwa introspekcja przyczynowa. najbardziej odczuwam to w chwilach frustracji, gdy przesłuchuję model i pytam "dlaczego to zrobiłeś?" i wiem, że wymyśli jakąś odpowiedź, ale ta odpowiedź jest zasadniczo gwarantowana jako halucynacja, a im bardziej naciskam na model, tym bardziej to oczywiste. po prostu nie ma zdolności do rzeczywistego refleksyjnego myślenia i prześledzenia swoich myśli, aby zrozumieć wewnętrzne cechy i aktywacje, które doprowadziły do jego wcześniejszej odpowiedzi i działań. to bardzo wyraźny moment "osiągnąłem granice tego, jak naprawdę inteligentna jest ta technologia."