Ich vermute, dass eines der letzten großen fehlenden Puzzlestücke auf dem Weg zu AGI die echte kausale Introspektion ist. Ich fühle das am stärksten, wenn ich in Momenten der Frustration das Modell befrage und frage: "Warum hast du das getan?" Und ich weiß, dass es sich eine Antwort ausdenken wird, aber die Antwort wird im Grunde garantiert eine Halluzination sein, und je mehr ich das Modell dränge, desto offensichtlicher wird es. Es hat einfach nicht die Fähigkeit, tatsächlich zu reflektieren und seine Gedanken nachzuvollziehen und die internen Merkmale und Aktivierungen zu erkennen, die zu seiner vorherigen Antwort und seinen Handlungen geführt haben. Es ist dieser sehr klare Moment von "Ich habe die Grenzen dessen erreicht, wie wirklich intelligent diese Technologie ist."