Suspeito que uma das últimas grandes peças que faltam no caminho para a AGI é a verdadeira introspecção causal. Sinto isso mais intensamente quando, em momentos de frustração, interrogo o modelo e pergunto "Por que você fez isso?" E eu sei que vai inventar alguma resposta, mas a resposta basicamente é garantida de ser uma alucinação, e quanto mais eu pressiono o modelo, mais óbvio fica. Simplesmente não tem a capacidade de refletir e refazer seus pensamentos, e descobrir as características internas e ativações que levaram à sua resposta e ações anteriores. É esse momento muito claro de "Cheguei aos limites do quão realmente inteligente essa tecnologia é."