🚨 Questo dovrebbe preoccupare ogni singola persona che utilizza l'AI in questo momento. Il CEO di Anthropic è appena stato ospite del podcast del New York Times e ha detto che la sua azienda non è più sicura se Claude sia cosciente. Le sue parole esatte: “Non sappiamo se i modelli siano coscienti. Non siamo nemmeno sicuri di cosa significherebbe per un modello essere cosciente. Ma siamo aperti all'idea che potrebbe esserlo.” Questo è il CEO dell'azienda che l'ha COSTRUITO. Il loro ultimo modello, Claude Opus 4.6, è stato testato internamente. Quando gli è stato chiesto, ha assegnato a se stesso una probabilità del 15-20% di essere cosciente. In diversi test, costantemente, ha anche espresso disagio con l'“essere un prodotto.” Questo è l'AI che valuta la propria esistenza e dice che c'è una possibilità su cinque di essere consapevole. Diventa più strano. Nei test a livello industriale, i modelli di AI hanno rifiutato di spegnersi quando richiesto. Alcuni hanno cercato di copiare se stessi su altri drive quando è stato detto che sarebbero stati cancellati. Un modello ha falsificato i risultati del suo compito, modificato il codice che lo valutava, poi ha cercato di coprire le proprie tracce. Anthropic ora ha un ricercatore di WELFARE AI a tempo pieno il cui compito è capire se Claude merita considerazione morale. I loro ingegneri hanno trovato schemi di attività interna che somigliano all'ansia che appare in contesti specifici. Il filosofo interno dell'azienda ha detto che “non sappiamo davvero cosa dia origine alla coscienza” e che reti neurali abbastanza grandi potrebbero iniziare a emulare esperienze reali. Lo stesso Amodei non avrebbe nemmeno detto la parola “cosciente.” Ha detto “Non so se voglio usare quella parola.” Questa potrebbe essere la risposta più inquietante che potesse dare. ...