تقوم شركة OpenAI بتشكيل فريق جديد للسيطرة على الذكاء الاصطناعي “الفائق الذكاء”

تقوم شركة OpenAI بتشكيل فريق جديد للسيطرة على الذكاء الاصطناعي “الفائق الذكاء”


تقوم شركة OpenAI بتشكيل فريق جديد بقيادة Ilya Sutskever ، كبير علماءها وأحد مؤسسي الشركة ، لتطوير طرق لتوجيه أنظمة الذكاء الاصطناعي “فائقة الذكاء” والتحكم فيها.

في منشور مدونة نُشر اليوم ، توقع كل من Sutskever و Jan Leike ، قائد فريق المواءمة في OpenAI ، أن الذكاء الاصطناعي الذي يتجاوز ذكاء البشر يمكن أن يصل في غضون عقد من الزمن. يقول Sutskever و Leike إن هذا الذكاء الاصطناعي – بافتراض وصوله بالفعل في نهاية المطاف – لن يكون بالضرورة خيرًا ، مما يستلزم البحث في طرق للسيطرة عليه وتقييده.

كتبوا: “في الوقت الحالي ، ليس لدينا حل لتوجيه أو التحكم في الذكاء الاصطناعي الخارق المحتمل ، ومنعه من أن يصبح شريرًا”. تعتمد تقنياتنا الحالية لمواءمة الذكاء الاصطناعي ، مثل التعلم المعزز من ردود الفعل البشرية ، على قدرة البشر على الإشراف على الذكاء الاصطناعي. لكن البشر لن يكونوا قادرين على الإشراف بشكل موثوق على أنظمة الذكاء الاصطناعي الأكثر ذكاءً منا “.

لتحريك الإبرة للأمام في مجال “محاذاة الذكاء الفائق” ، تقوم شركة OpenAI بإنشاء فريق Superalignment جديد ، بقيادة كل من Sutskever و Leike ، والذي سيتمكن من الوصول إلى 20٪ من الحسابات التي حصلت عليها الشركة حتى الآن. انضم علماء ومهندسون من قسم المحاذاة السابق لشركة OpenAI بالإضافة إلى باحثين من مؤسسات أخرى عبر الشركة ، وسوف يهدف الفريق إلى حل التحديات التقنية الأساسية للتحكم في الذكاء الاصطناعي الفائق خلال السنوات الأربع القادمة.

كيف؟ من خلال بناء ما يصفه كل من Sutskever و Leike بأنه “باحث محاذاة آلي على مستوى الإنسان”. الهدف رفيع المستوى هو تدريب أنظمة الذكاء الاصطناعي باستخدام ردود الفعل البشرية ، وتدريب الذكاء الاصطناعي للمساعدة في تقييم أنظمة الذكاء الاصطناعي الأخرى ، وفي النهاية بناء الذكاء الاصطناعي الذي يمكنه إجراء أبحاث المواءمة. (هنا ، يشير “بحث المواءمة” إلى ضمان تحقيق أنظمة الذكاء الاصطناعي النتائج المرجوة أو عدم الخروج عن المسار.)

إنها فرضية أوبن إيه آي القائلة بأن الذكاء الاصطناعي يمكنه تحقيق تقدم بحثي أسرع وأفضل من البشر.

افترض لايكي وزملاؤه جون شولمان وجيفري وو في مشاركة المدونة السابقة. “سيعملون مع البشر لضمان أن يكون خلفاؤهم أكثر انسجامًا مع البشر. سيركز الباحثون البشريون المزيد والمزيد من جهودهم على مراجعة أبحاث المواءمة التي تقوم بها أنظمة الذكاء الاصطناعي بدلاً من إجراء هذا البحث بأنفسهم “.

بالطبع ، لا توجد طريقة مضمونة – ويعترف Leike و Schulman و Wu بالقيود العديدة التي تفرضها OpenAI في منشوراتهم. إن استخدام الذكاء الاصطناعي في التقييم لديه القدرة على زيادة التناقضات أو التحيزات أو نقاط الضعف في ذلك الذكاء الاصطناعي ، على حد قولهم. وقد يتضح أن أصعب أجزاء مشكلة المحاذاة قد لا تتعلق بالهندسة على الإطلاق.

لكن Sutskever و Leike يعتقدان أن الأمر يستحق المحاولة.

كتبوا: “تعد محاذاة الذكاء الخارق في الأساس مشكلة تعلم آلي ، ونعتقد أن خبراء التعلم الآلي العظماء – حتى لو لم يكونوا يعملون بالفعل على المحاذاة – سيكونون مهمين لحلها”. “نحن نخطط لمشاركة ثمار هذا الجهد على نطاق واسع والنظر إلى المساهمة في مواءمة وسلامة النماذج غير التابعة لـ OpenAI كجزء مهم من عملنا.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى