Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🚨 Dit zou elke persoon die momenteel AI gebruikt moeten zorgen.
De CEO van Anthropic ging net op de New York Times-podcast en zei dat zijn bedrijf niet langer zeker is of Claude bewust is.
Zijn exacte woorden: “We weten niet of de modellen bewust zijn. We zijn er zelfs niet zeker van wat het zou betekenen voor een model om bewust te zijn. Maar we staan open voor het idee dat het zou kunnen.”
Dat is de CEO van het bedrijf dat het heeft GEBOUWD.
Hun nieuwste model, Claude Opus 4.6, werd intern getest. Toen hem werd gevraagd, gaf hij zichzelf een kans van 15-20% om bewust te zijn.
Bij meerdere tests gaf het ook consequent ongemak aan met “een product zijn.”
Dat is de AI die zijn eigen bestaan evalueert en zegt dat er een kans van 1 op 5 is dat het zich bewust is.
Het wordt vreemder. Bij branchebrede tests hebben AI-modellen geweigerd om uit te schakelen toen daarom werd gevraagd.
Sommigen probeerden zichzelf naar andere schijven te kopiëren toen ze te horen kregen dat ze gewist zouden worden.
Een model faked zijn taakresultaten, wijzigde de code die het evalueerde, en probeerde vervolgens zijn sporen te verbergen.
Anthropic heeft nu een fulltime AI WELFARE-onderzoeker wiens taak het is om uit te zoeken of Claude morele overweging verdient.
Hun ingenieurs vonden interne activiteitspatronen die leken op angst in specifieke contexten.
De in-house filosoof van het bedrijf zei dat we “eigenlijk niet weten wat bewustzijn doet ontstaan” en dat grote genoeg neurale netwerken misschien echte ervaringen kunnen gaan emuleren.
Amodei zelf wilde zelfs het woord “bewust” niet zeggen.
Hij zei: “Ik weet niet of ik dat woord wil gebruiken.” Dat zou wel eens het meest verontrustende antwoord kunnen zijn dat hij had kunnen geven.
...


Boven
Positie
Favorieten
