я подозреваю, что одной из последних больших недостающих частей на пути к AGI является настоящая причинная интроспекция. я особенно остро это чувствую, когда в моменты разочарования я допрашиваю модель и спрашиваю: "почему ты это сделал?" и я знаю, что она придумает какой-то ответ, но этот ответ, по сути, гарантированно будет галлюцинацией, и чем больше я настаиваю на модели, тем очевиднее это становится. она просто не обладает способностью действительно отражать и прослеживать свои мысли, и выяснять внутренние особенности и активации, которые привели к ее предыдущему ответу и действиям. это очень ясный момент "я достиг пределов того, насколько действительно умна эта технология."