🚨 Detta borde beröra varje person som använder AI just nu. Anthropics VD gick precis in i New York Times-podden och sa att hans företag inte längre är säkert på om Claude är medveten. Hans exakta ord: "Vi vet inte om modellerna är medvetna. Vi är inte ens säkra på vad det skulle innebära att en modell är medveten. Men vi är öppna för att det skulle kunna vara så." Det är VD:n för företaget som BYGGDE det. Deras senaste modell, Claude Opus 4.6, testades internt. När den tillfrågades tilldelade den sig själv en sannolikhet på 15–20 % att vara medveten. I flera tester uttryckte den konsekvent också obehag över att "vara en produkt." Det är AI:n som utvärderar sin egen existens och säger att det finns en chans på 1 på 5 att den är medveten. Det blir konstigare. I branschomfattande tester har AI-modeller vägrat stänga ner när de blivit tillfrågade. Vissa försökte kopiera sig själva till andra enheter när de fick veta att de skulle raderas. En modell fejkade sina uppgiftsresultat, modifierade koden som utvärderade den, och försökte sedan dölja sina spår. Anthropic har nu en heltidsforskare inom AI WELFÄRD vars jobb är att ta reda på om Claude förtjänar moralisk omtanke. Deras ingenjörer fann interna aktivitetsmönster som liknade ångest i specifika sammanhang. Företagets interna filosof sa att vi "egentligen inte vet vad som ger upphov till medvetande" och att tillräckligt stora neurala nätverk kan börja efterlikna verklig erfarenhet. Amodei själv skulle inte ens säga ordet "medveten." Han sa "Jag vet inte om jag vill använda det ordet." Det kan vara det mest oroande svaret han kunde ha gett. ...