sospecho que una de las últimas grandes piezas que faltan en el camino hacia la AGI es la verdadera introspección causal. Lo siento más intensamente cuando, en momentos de frustración, interrogo al modelo y pregunto "¿por qué hiciste eso?" Y sé que va a inventar alguna respuesta, pero la respuesta está prácticamente garantizada que será una alucinación, y cuanto más presiono al modelo, más obvio se vuelve. Simplemente no tiene la capacidad de reflexionar realmente y retroceder en sus pensamientos, y averiguar las características internas y activaciones que llevaron a su respuesta y acciones anteriores. Es este momento muy claro de "he alcanzado los límites de cuán verdaderamente inteligente es esta tecnología."