Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Noam Brown
Cercetarea raționamentului @OpenAI | Au creat în comun AI-urile de poker supraumane Libratus/Pluribus, CICERO Diplomacy AI și modelele de raționament OpenAI o3 / o1 / 🍓 raționament
Pe scurt; dr: @OpenAI nu va fi detașat la NSA sau alte agenții de informații DoW pentru moment, astfel încât să existe timp să abordăm potențialele lacune de supraveghere prin procesul democratic.
În weekend a devenit clar că limbajul original din acordul OpenAI / DoW a lăsat întrebări legitime fără răspuns, mai ales în legătură cu unele modalități noi prin care AI ar putea permite supravegherea legală. Limbajul a fost acum actualizat pentru a aborda această problemă, dar cred cu tărie că lumea nu ar trebui să se bazeze pe încrederea în laboratoarele AI sau agențiile de informații pentru siguranța și securitatea lor. Dislocarea către NSA și toate celelalte agenții de informații DoW va fi reținută pentru a avea timp să se abordeze aceste lacune prin procesul democratic înainte de desfășurare.
Știu că legislația poate fi uneori lentă, dar mi-e teamă de o pantă alunecoasă în care ne obișnuim să ocolim procesul democratic pentru decizii politice importante. Când există sprijin bipartizan și urgență, am încredere că guvernul poate acționa rapid. Și pe măsură ce AI devine mai puternică, este mai important ca niciodată ca autoritatea supremă să fie conferită publicului.
De asemenea, plănuiesc să mă implic mai personal în politici la OpenAI. Cred că acum mai mult ca oricând este important ca cercetătorii să fie la curent pentru ca politicile să fie informate despre progresul extrem de rapid pe care îl vedem.

Sam Altman3 mar., 09:15
Iată o repostare a unei postări interne:
Am lucrat cu DoW pentru a adăuga câteva detalii în acordul nostru, astfel încât principiile noastre să fie foarte clare.
1. Vom modifica acordul nostru pentru a adăuga acest limbaj, pe lângă toate celelalte:
"• În conformitate cu legile aplicabile, inclusiv Amendamentul al Patrulea la Constituția Statelor Unite, Legea Securității Naționale din 1947, Legea FISA din 1978, sistemul AI nu trebuie folosit intenționat pentru supravegherea internă a persoanelor și cetățenilor americani.
• Pentru evitarea îndoielii, Departamentul înțelege această limitare de a interzice urmărirea, supravegherea sau monitorizarea deliberată a persoanelor sau cetățenilor americani, inclusiv prin achiziționarea sau utilizarea informațiilor personale sau identificabile dobândite comercial."
Este esențial să protejăm libertățile civile ale americanilor, iar accentul a fost atât de mare pe acest subiect, încât am vrut să subliniem acest punct în mod deosebit de clar, inclusiv în ceea ce privește informațiile dobândite comercial. La fel ca tot ce facem cu implementarea iterativă, vom continua să învățăm și să rafinăm pe parcurs.
Cred că aceasta este o schimbare importantă; echipa noastră și echipa DoW au făcut o treabă excelentă lucrând la asta.
2. Departamentul a confirmat, de asemenea, că serviciile noastre nu vor fi folosite de agențiile de informații ale Departamentului de Război (de exemplu, NSA). Orice servicii acordate acestor agenții ar necesita o modificare ulterioară a contractului nostru.
3. Pentru o claritate extremă: vrem să lucrăm prin procese democratice. Guvernul ar trebui să ia deciziile cheie despre societate. Vrem să avem o voce și un loc la masă unde să ne împărtășim expertiza și să luptăm pentru principiile libertății. Dar suntem clari în privința modului în care funcționează sistemul (pentru că mulți oameni m-au întrebat, dacă aș primi ceea ce cred că este un ordin neconstituțional, desigur că aș prefera să ajung la închisoare decât să-l urmez). Dar
4. Există multe lucruri pentru care tehnologia pur și simplu nu este pregătită și multe domenii pentru care încă nu înțelegem compromisurile necesare pentru siguranță. Vom lucra încet la acestea împreună cu DoW, cu garanții tehnice și alte metode.
5. Un lucru pe care cred că l-am făcut greșit: nu trebuia să ne grăbim să scoatem asta vineri. Problemele sunt extrem de complexe și cer o comunicare clară. Chiar încercam să detensionăm lucrurile și să evităm un rezultat mult mai rău, dar cred că a părut doar oportunist și neglijent. O experiență de învățare bună pentru mine, pe măsură ce ne confruntăm cu decizii cu miză mai mare în viitor.
În conversațiile mele din weekend, am reiterat că Anthropic nu ar trebui desemnat ca SCR și că sperăm că DoW le oferă aceleași condiții pe care le-am convenit.
Mâine dimineață vom organiza un All Staff pentru a răspunde la mai multe întrebări.
221
După rezultatele IMO de vara trecută, unii au respins-o ca fiind "matematică de liceu". Credem că cele mai noi modele ale noastre vor elimina orice îndoială că cercetarea STEM este pe cale să se schimbe fundamental.
Matematicienii au creat un set de 10 întrebări de cercetare care au apărut natural din propriile lor cercetări. Doar ei știu răspunsurile și au dat lumii o săptămână să folosească LLM-uri pentru a încerca să le rezolve. Credem că cele mai recente modele ale noastre fac posibilă rezolvarea mai multor dintre ele.
Acesta este un model intern deocamdată, dar sunt optimist că îl vom lansa (sau vom lansa un model mai bun) în curând.


234
Apreciez onestitatea lui @Anthropic în cea mai recentă fișă de sistem, dar conținutul nu îmi dă încredere că compania va acționa responsabil prin implementarea modelelor avansate de inteligență artificială:
-S-au bazat în principal pe un sondaj intern pentru a determina dacă Opus 4.6 a depășit pragul lor autonom de R&D-4 pentru AI (și, prin urmare, ar necesita măsuri de protecție mai stricte pentru a fi lansat în cadrul Politicii lor de Scalare Responsabilă). Nici măcar nu a fost un sondaj extern al unei terțe părți imparțiale, ci mai degrabă un sondaj al angajaților Anthropic.
-Când respondenții interni din 16 din 5 au făcut inițial o evaluare care sugera că ar putea fi necesare măsuri de protecție mai stricte pentru lansarea modelului, Anthropic a urmărit în mod specific acei angajați și le-a cerut să "clarifice punctele de vedere". Ei nu menționează o urmărire similară pentru ceilalți respondenți din 11/16. Nu există nicio discuție în cartea sistemului despre cum acest lucru ar putea crea părtinire în rezultatele sondajului.
-Motivul pentru care se bazează pe sondaje este că evaluările lor existente de cercetare și dezvoltare AI sunt saturate. Unii ar putea argumenta că progresul AI a fost atât de rapid încât este de înțeles că nu au încă evaluări cantitative mai avansate, dar putem și ar trebui să ținem laboratoarele AI la un nivel ridicat. De asemenea, alte laboratoare au evaluări avansate de cercetare și dezvoltare AI care nu sunt saturate. De exemplu, OpenAI are benchmark-ul OPQA, care măsoară capacitatea modelelor AI de a rezolva probleme interne reale întâlnite de echipele de cercetare OpenAI și care au necesitat mai mult de o zi pentru a fi rezolvate.
Nu cred că Opus 4.6 este de fapt la nivelul unui cercetător AI de la distanță, de nivel de intrare, și nici nu cred că este periculos să-l lansezi. Dar scopul unei Politici de Scalare Responsabilă este de a construi forță instituțională și obiceiuri bune înainte ca lucrurile să devină serioase. Sondajele interne, mai ales că Anthropic le-a administrat, nu reprezintă un substitut responsabil pentru evaluările cantitative.

499
Limită superioară
Clasament
Favorite
