suspeito que uma das últimas grandes peças que faltam no caminho para a AGI é a verdadeira introspecção causal. sinto isso de forma mais aguda quando, em momentos de frustração, interrogo o modelo e pergunto "por que fizeste isso?" e sei que ele vai inventar alguma resposta, mas a resposta é basicamente garantida para ser uma alucinação, e quanto mais insisto no modelo, mais óbvio se torna. ele simplesmente não tem a capacidade de realmente refletir e retratar seus pensamentos, e descobrir as características internas e ativações que levaram à sua resposta e ações anteriores. é este momento muito claro de "cheguei aos limites de quão verdadeiramente inteligente esta tecnologia é."