Epäilen, että yksi viimeisistä suurista puuttuvista palasista matkalla AGI:hen on todellinen kausaalinen itsetutkiskelu. Tunnen tämän kaikkein terävimmin, kun turhautuneina hetkinä kuulustelen mallia ja kysyn "Miksi teit niin?" Ja tiedän, että se keksii jonkin vastauksen, mutta vastaus on käytännössä varmasti hallusinaatio, ja mitä kovemmin painan mallia, sitä ilmeisemmäksi se on. sillä ei yksinkertaisesti ole kykyä oikeasti pohtia ja jäljittää ajatuksiaan uudelleen, eikä selvittää sisäisiä ominaisuuksia ja aktivoitumisia, jotka johtivat sen aiempiin reaktioihin ja toimiin. Se on hyvin selvä hetki, jossa "olen saavuttanut rajat siitä, kuinka todella älykäs tämä teknologia on."