المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Noam Brown
البحث في @OpenAI المنطقي | شارك في إنشاء Libratus / Pluribus البوكر الخارق للذكاء الاصطناعي ، و CICERO Diplomacy الذكاء الاصطناعي ، و OpenAI o3 / o1 / 🍓 المنطق
ملخص؛ DR: لن يتم نشر @OpenAI إلى وكالة الأمن القومي أو وكالات الاستخبارات الأخرى في وزارة الحرب حاليا، حتى يكون هناك وقت لمعالجة ثغرات المراقبة المحتملة عبر العملية الديمقراطية.
خلال عطلة نهاية الأسبوع، أصبح واضحا أن اللغة الأصلية في اتفاقية OpenAI / DoW تركت أسئلة مشروعة دون إجابة، خاصة حول بعض الطرق الجديدة التي يمكن للذكاء الاصطناعي من خلالها تمكين المراقبة القانونية. تم تحديث اللغة الآن لمعالجة هذا الأمر، لكنني أؤمن بشدة أيضا أن العالم لا ينبغي أن يعتمد على الثقة في مختبرات الذكاء الاصطناعي أو وكالات الاستخبارات من أجل سلامتهم وأمنهم. سيتم حجب النشر إلى وكالة الأمن القومي وجميع وكالات الاستخبارات الأخرى التابعة لوزارة الدفاع حتى يكون هناك وقت لمعالجة هذه الثغرات عبر العملية الديمقراطية قبل النشر.
أعلم أن التشريعات قد تكون بطيئة أحيانا، لكنني أخشى أن نمر بمنحدر زلق نعتاد فيه على تجاوز العملية الديمقراطية لاتخاذ قرارات سياسية مهمة. عندما يكون هناك دعم وعجلة من الحزبين، لدي ثقة بأن الحكومة يمكنها التصرف بسرعة. ومع تزايد قوة الذكاء الاصطناعي، أصبح من المهم أكثر من أي وقت مضى أن تمنح السلطة النهائية للجمهور.
كما أخطط لأن أكون أكثر انخراطا شخصيا في السياسات في OpenAI. أعتقد أنه من المهم الآن أكثر من أي وقت مضى أن يكون الباحثون على اطلاع حتى تكون السياسات على علم بالتقدم السريع جدا الذي نشهده.

Sam Altman3 مارس، 09:15
إليكم إعادة نشر منشور داخلي:
لقد عملنا مع وزارة الحرب لإضافة بعض الإضافات في اتفاقنا لتوضيح مبادئنا بشكل واضح.
1. سنعدل اتفاقنا لإضافة هذه النص، بالإضافة إلى كل شيء آخر:
"• تماشيا مع القوانين المعمول بها، بما في ذلك التعديل الرابع لدستور الولايات المتحدة، وقانون الأمن القومي لعام 1947، وقانون FISA لعام 1978، لا يجوز استخدام نظام الذكاء الاصطناعي عمدا للمراقبة الداخلية للأشخاص والمواطنين الأمريكيين.
• لتجنب الشك، تفهم الوزارة أن هذا القيد يمنع التتبع المتعمد أو المراقبة أو المراقبة للأشخاص أو المواطنين الأمريكيين، بما في ذلك من خلال الحصول أو استخدام المعلومات الشخصية أو القابلة للتعريف التي تم الحصول عليها تجاريا."
من الضروري حماية الحريات المدنية للأمريكيين، وكان هناك تركيز كبير على هذا الموضوع، لذلك أردنا توضيح هذه النقطة بشكل خاص، بما في ذلك حول المعلومات المكتسبة تجاريا. تماما كما نفعل مع النشر التكراري، سنستمر في التعلم وتحسين المراحل أثناء التقدم.
أعتقد أن هذا تغيير مهم؛ فريقنا وفريق DoW قاموا بعمل رائع في العمل عليها.
2. أكدت الوزارة أيضا أن خدماتنا لن تستخدم من قبل وكالات استخبارات وزارة الحرب (مثل وكالة الأمن القومي). أي خدمات لتلك الوكالات ستتطلب تعديلا إضافيا على عقدنا.
3. للتوضيح القصوى: نريد أن نعمل من خلال العمليات الديمقراطية. يجب أن تكون الحكومة هي التي تتخذ القرارات الرئيسية بشأن المجتمع. نريد أن يكون لنا صوت، ومقعدا على الطاولة يمكننا فيه مشاركة خبراتنا، وننضل من أجل مبادئ الحرية. لكننا واضحون بشأن كيفية عمل النظام (لأن الكثير من الناس سألون، إذا تلقيت ما اعتقدت أنه أمر غير دستوري، بالطبع كنت أفضل الذهاب إلى السجن على أن أتبعه). لكن
4. هناك العديد من الأمور التي لم تكن التكنولوجيا جاهزة لها، والعديد من المجالات التي لا نفهم بعد التنازلات المطلوبة للسلامة. سنعمل على تجاوز هذه الأمور ببطء مع وزارة العمال، مع الضمانات التقنية وطرق أخرى.
5. شيء واحد أعتقد أنني فعلته خطأ: لم يكن يجب أن نسرع في نشر هذا يوم الجمعة. القضايا معقدة للغاية وتتطلب تواصلا واضحا. كنا نحاول حقا تهدئة الأمور وتجنب نتيجة أسوأ بكثير، لكن أعتقد أن الأمر بدا انتهازيا ومهملا. تجربة تعليمية جيدة لي ونحن نواجه قرارات ذات أهمية أكبر في المستقبل.
في محادثاتي خلال عطلة نهاية الأسبوع، كررت أن Anthropic لا يجب أن يصنف كعضو SCR، وأننا نأمل أن تقدم لهم وزارة العمل نفس الشروط التي وافقنا عليها.
سنستضيف صباح الغد اجتماعا لجميع الموظفين للإجابة على المزيد من الأسئلة.
218
بعد نتائج المنظمة الدولية للنظر الصيف الماضي، اعتبر البعض الأمر "رياضيات المدرسة الثانوية". نعتقد أن نماذجنا الحديثة ستزيل أي شك في أن أبحاث العلوم والتكنولوجيا والهندسة والرياضيات على وشك التغيير الجذري.
أنشأ الرياضيون مجموعة من 10 أسئلة بحثية نشأت بشكل طبيعي من أبحاثهم الخاصة. هم فقط من يعرفون الإجابات، وأعطوا العالم أسبوعا لاستخدام نماذج اللغة الكبيرة لمحاولة حلها. نعتقد أن نماذجنا الحديثة تتيح حل العديد منها.
هذا نموذج داخلي حاليا، لكنني متفائل بأننا سنخرجه (أو نموذج أفضل) قريبا.


231
أقدر صدق @Anthropic في بطاقة النظام الأخيرة لديهم، لكن محتواها لا يمنحني ثقة بأن الشركة ستتصرف بمسؤولية عند نشر نماذج الذكاء الاصطناعي المتقدمة:
-اعتمدوا بشكل أساسي على مسح داخلي لتحديد ما إذا كان أوبوس 4.6 قد تجاوز عتبة الذكاء الاصطناعي المستقل للبحث والتطوير (وبالتالي سيتطلب ضمانات أقوى للإصدار بموجب سياسة التوسع المسؤول الخاصة بهم). لم يكن هذا حتى استطلاعا خارجيا لطرف ثالث محايد، بل كان استطلاعا لموظفي أنثروبيك.
- عندما قدم المستجيبون الداخليون في 16/5 تقييما اقترح أنه قد تكون هناك حاجة إلى ضمانات أقوى لإطلاق النماذج، تابعت أنثروبيك مع هؤلاء الموظفين تحديدا وطلبت منهم "توضيح آرائهم." لم يذكروا أي متابعة مماثلة للمستجيبين الآخرين في 16/11. لا يوجد نقاش في بطاقة النظام حول كيف قد يخلق ذلك تحيزا في نتائج الاستبيان.
-سبب اعتمادهم على الاستطلاعات هو أن تقييمات البحث والتطوير للذكاء الاصطناعي لديهم مشبعة. قد يجادل البعض بأن تقدم الذكاء الاصطناعي كان سريعا جدا بحيث من المفهوم أنه لا توجد تقييمات كمية أكثر تقدما بعد، لكن يمكننا ويجب علينا أن نفرض معايير عالية على مختبرات الذكاء الاصطناعي. أيضا، مختبرات أخرى لديها تقييمات متقدمة للبحث والتطوير للذكاء الاصطناعي غير مشبعة. على سبيل المثال، لدى OpenAI معيار OPQA الذي يقيس قدرة نماذج الذكاء الاصطناعي على حل المشكلات الداخلية الحقيقية التي واجهتها فرق البحث في OpenAI والتي استغرق الفريق أكثر من يوم لحلها.
لا أعتقد أن أوبوس 4.6 في الواقع على مستوى باحث ذكاء اصطناعي مبتدئ عن بعد، ولا أعتقد أنه خطير في الإصدار. لكن هدف سياسة التوسع المسؤول هو بناء القوة المؤسسية والعادات الجيدة قبل أن تصبح الأمور جدية. الاستطلاعات الداخلية، خاصة بعد أن أجرتها Anthropic، ليست بديلا مسؤولا عن التقييمات الكمية.

495
الأفضل
المُتصدِّرة
التطبيقات المفضلة
