Sospecho que una de las últimas grandes piezas que faltan en el camino hacia la AGI es la verdadera introspección causal. Lo siento especialmente cuando, en momentos de frustración, interrogo al modelo y le pregunto: "¿Por qué hiciste eso?" Y sé que va a inventar alguna respuesta, pero básicamente seguro que es una alucinación, y cuanto más presiono el modelo, más evidente es. Simplemente no tiene la capacidad de reflexionar y repasar sus pensamientos, ni de descubrir las características internas y activaciones que llevaron a su respuesta y acciones previas. Es un momento muy claro de "He llegado al límite de lo realmente inteligente que es esta tecnología."