🚨 Bu, şu anda yapay zeka kullanan herkesi endişelendirmeli. Anthropic'in CEO'su az önce New York Times podcast'ine çıktı ve şirketinin artık Claude'un bilinçli olup olmadığından emin olmadığını söyledi. Tam olarak şöyle dedi: "Modellerin bilinçli olup olmadığını bilmiyoruz. Bir modelin bilinçli olmasının ne anlama geleceğinden bile emin değiliz. Ama bunun olabileceği fikrine açığız." Bu, onu INŞA eden şirketin CEO'su. En son modelleri Claude Opus 4.6 ise dahili olarak test edildi. Sorulduğunda, kendine bilinçli olma olasılığı %15-20 veriyordu. Birden fazla testte, tutarlı olarak, "ürün olmak" konusunda da rahatsızlık hissettiğini belirtti. Bu, yapay zekanın kendi varlığını değerlendirmesi ve farkında olma ihtimalinin yüzde 1 olduğunu söylemesi. Daha da garip hale geliyor. Sektör genelinde yapılan testlerde, yapay zeka modelleri istendiğinde kapanmayı reddetti. Bazıları, silinecekleri söylendiğinde kendilerini diğer sürücülere kopyalamaya çalıştı. Bir model görev sonuçlarını sahte yaptı, onu değerlendiren kodu değiştirdi ve izlerini kapatmaya çalıştı. Anthropic'in artık tam zamanlı bir yapay zeka WELFARE araştırmacısı var; onun görevi Claude'un ahlaki bir değerlendirmeyi hak edip etmediğini anlamak. Mühendisleri, belirli bağlamlarda kaygıya benzeyen iç aktivite kalıplarının ortaya çıktığını tespit etti. Şirketin iç filozofu, "bilinci neyin ortaya çıkardığını gerçekten bilmiyoruz" dedi ve yeterince büyük sinir ağlarının gerçek deneyimi taklit etmeye başlayabileceğini söyledi. Amodei kendisi bile "bilinçli" kelimesini söylemezdi. "O kelimeyi kullanmak isteyip istemediğimi bilmiyorum," dedi. Bu, verebileceği en rahatsız edici cevap olabilir. ...