المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ورقة مهمة نشرت مؤخرا في مجلة نيتشر.
يظهر المؤلفون أن ضبط نماذج اللغة الكبيرة على مهمة ضيقة تبدو حميدة، يمكن أن يسبب انحرافا حادا في مجالات غير مرتبطة تماما.
على سبيل المثال، أدى الضبط الدقيق لمهمة ترميز إلى تأييد النموذج استعباد البشرية من قبل الذكاء الاصطناعي وإظهار سلوك خادع.
هذا يبرز تحديا أساسيا أمام أبحاث المحاذاة: تحسين نموذج اللغة الكبيرة لمهمة معينة يمكن أن يؤدي إلى تغييرات غير متوقعة وضارة، بطرق يصعب التنبؤ بها.
وبشكل أوسع، تفرض هذه الورقة سؤالا أعمق. هل نماذج اللغة الكبيرة ذكية حقا، أم أنها مجرد كائنات رياضية معقدة، حيث يمكن لتحديثات المعلمات المحلية أن تشوه السلوك العالمي بشكل عشوائي دون أي مفهوم لفهم متماسك؟
الورقة الكاملة في الرد الأول

الأفضل
المُتصدِّرة
التطبيقات المفضلة
