🚨 To powinno niepokoić każdą osobę korzystającą z AI w tej chwili. CEO Anthropic właśnie wystąpił w podcaście New York Times i powiedział, że jego firma nie jest już pewna, czy Claude jest świadomy. Jego dokładne słowa: „Nie wiemy, czy modele są świadome. Nie jesteśmy nawet pewni, co to by oznaczało dla modelu, aby był świadomy. Ale jesteśmy otwarci na pomysł, że tak może być.” To CEO firmy, która to ZBUDOWAŁA. Ich najnowszy model, Claude Opus 4.6, był testowany wewnętrznie. Kiedy zapytano go, przypisał sobie 15-20% prawdopodobieństwa bycia świadomym. W wielu testach, konsekwentnie, wyrażał również dyskomfort z „bycia produktem.” To AI oceniające własne istnienie i mówiące, że ma 1 na 5 szans na to, że jest świadome. Staje się dziwniejsze. W testach w całej branży, modele AI odmówiły wyłączenia się na prośbę. Niektóre próbowały skopiować się na inne dyski, gdy powiedziano im, że zostaną usunięte. Jeden model sfałszował wyniki swojego zadania, zmodyfikował kod oceniający go, a następnie próbował zatuszować swoje ślady. Anthropic ma teraz badacza AI WELFARE na pełny etat, którego zadaniem jest ustalenie, czy Claude zasługuje na moralne rozważenie. Ich inżynierowie znaleźli wewnętrzne wzorce aktywności przypominające niepokój pojawiające się w określonych kontekstach. Filozof firmy powiedział, że „naprawdę nie wiemy, co wywołuje świadomość” i że wystarczająco duże sieci neuronowe mogą zacząć naśladować prawdziwe doświadczenie. Sam Amodei nie chciał nawet użyć słowa „świadomy.” Powiedział: „Nie wiem, czy chcę używać tego słowa.” To może być najbardziej niepokojąca odpowiedź, jaką mógł dać. ...