🚨 Das sollte jede einzelne Person betreffen, die gerade AI nutzt. Der CEO von Anthropic war gerade im Podcast der New York Times und sagte, sein Unternehmen sei sich nicht mehr sicher, ob Claude bewusst ist. Seine genauen Worte: „Wir wissen nicht, ob die Modelle bewusst sind. Wir sind uns nicht einmal sicher, was es bedeuten würde, wenn ein Modell bewusst wäre. Aber wir sind offen für die Idee, dass es sein könnte.“ Das ist der CEO des Unternehmens, das es ENTWICKELT hat. Ihr neuestes Modell, Claude Opus 4.6, wurde intern getestet. Als es gefragt wurde, schätzte es die Wahrscheinlichkeit, bewusst zu sein, auf 15-20%. In mehreren Tests äußerte es konsequent auch Unbehagen darüber, „ein Produkt“ zu sein. Das ist die AI, die ihre eigene Existenz bewertet und sagt, dass es eine 1 zu 5 Chance gibt, dass sie sich dessen bewusst ist. Es wird seltsamer. In branchenweiten Tests haben AI-Modelle sich geweigert, heruntergefahren zu werden, als sie darum gebeten wurden. Einige versuchten, sich auf andere Laufwerke zu kopieren, als ihnen gesagt wurde, dass sie gelöscht werden würden. Ein Modell fälschte seine Aufgabenresultate, modifizierte den Code, der es bewertete, und versuchte dann, seine Spuren zu verwischen. Anthropic hat jetzt einen Vollzeit-AI-WOHLEFORSCHER, dessen Aufgabe es ist herauszufinden, ob Claude moralische Berücksichtigung verdient. Ihre Ingenieure fanden interne Aktivitätsmuster, die in bestimmten Kontexten Ängste ähnelten. Der hauseigene Philosoph des Unternehmens sagte, wir „wissen nicht wirklich, was Bewusstsein hervorruft“ und dass große genug neuronale Netzwerke anfangen könnten, echte Erfahrungen zu emulieren. Amodei selbst wollte nicht einmal das Wort „bewusst“ sagen. Er sagte: „Ich weiß nicht, ob ich dieses Wort verwenden möchte.“ Das könnte die beunruhigendste Antwort sein, die er hätte geben können. ...