تزور كبرى شركات الذكاء الاصطناعي البيت الأبيض لتقديم التزامات أمان “طوعية”


في حين أن التشريع الموضوعي للذكاء الاصطناعي قد لا يزال بعيد المنال ، إلا أن الصناعة تتحرك بسرعة الضوء ويخشى الكثير – بما في ذلك البيت الأبيض – من أنها قد تنجرف بعيدًا. لذلك جمعت إدارة بايدن “التزامات طوعية” من 7 من أكبر مطوري الذكاء الاصطناعي لمتابعة أهداف السلامة والشفافية المشتركة قبل الأمر التنفيذي المخطط.

OpenAI و Anthropic و Google و Inflection و Microsoft و Meta و Amazon هي الشركات المشاركة في هذه الاتفاقية غير الملزمة ، وسترسل ممثلين إلى البيت الأبيض للقاء الرئيس بايدن اليوم.

لكي نكون واضحين ، لا توجد قاعدة أو تطبيق مقترح هنا – الممارسات المتفق عليها طوعية بحتة. ولكن على الرغم من أنه لا توجد وكالة حكومية ستحاسب الشركة إذا تهربت من القليل ، فمن المحتمل أيضًا أن تكون مسألة سجل عام.

فيما يلي قائمة الحاضرين في حفلة البيت الأبيض:

  • براد سميث ، رئيس شركة مايكروسوفت
  • كينت والكر ، رئيس Google
  • داريو أمودي ، الرئيس التنفيذي لشركة Anthropic
  • مصطفى سليمان ، الرئيس التنفيذي لشركة Inflection AI
  • نيك كليج ، رئيس ميتا
  • جريج بروكمان ، رئيس شركة OpenAI
  • آدم سيليبسكي ، الرئيس التنفيذي لشركة أمازون ويب سيرفيسز

لا تابعين ، لكن لا مليارديرات أيضًا. (ولا توجد نساء).

التزمت الشركات السبع (وعلى الأرجح الشركات الأخرى التي لم تحصل على علاج السجادة الحمراء ولكنها ترغب في الركوب على طولها) بما يلي:

  • اختبارات الأمان الداخلية والخارجية لأنظمة الذكاء الاصطناعي قبل الإصدار ، بما في ذلك “الفريق الأحمر” العدائي من قبل خبراء من خارج الشركة.
  • تبادل المعلومات عبر الحكومة والأوساط الأكاديمية و “المجتمع المدني” حول مخاطر الذكاء الاصطناعي وتقنيات التخفيف (مثل منع “كسر الحماية”).
  • استثمر في الأمن السيبراني و “إجراءات الحماية من التهديدات الداخلية” لحماية بيانات النموذج الخاص مثل الأوزان. هذا مهم ليس فقط لحماية IP ولكن لأن الإصدار الواسع قبل الأوان قد يمثل فرصة للجهات الضارة.
  • تسهيل اكتشاف الأطراف الثالثة والإبلاغ عن نقاط الضعف ، مثل برنامج مكافأة الأخطاء أو تحليل خبراء المجال.
  • قم بتطوير علامة مائية قوية أو طريقة أخرى لتمييز المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
  • الإبلاغ عن “قدرات أنظمة الذكاء الاصطناعي وقيودها ومجالات الاستخدام المناسب وغير المناسب”. حظا سعيدا في الحصول على إجابة مباشرة على هذا السؤال.
  • إعطاء الأولوية للبحث عن المخاطر المجتمعية مثل التحيز المنهجي أو قضايا الخصوصية.
  • تطوير ونشر الذكاء الاصطناعي “للمساعدة في مواجهة أكبر تحديات المجتمع” مثل الوقاية من السرطان وتغير المناخ. (على الرغم من أنه لوحظ في مكالمة صحفية أن البصمة الكربونية لنماذج الذكاء الاصطناعي لم يتم تتبعها).

على الرغم من أن ما ورد أعلاه طوعي ، يمكن للمرء أن يتخيل بسهولة أن تهديد الأمر التنفيذي – وهم “يطورون حاليًا” واحد – موجود لتشجيع الامتثال. على سبيل المثال ، إذا فشلت بعض الشركات في السماح باختبار الأمان الخارجي لنماذجها قبل الإصدار ، يجوز لـ EO يطور فقرة توجه لجنة التجارة الفيدرالية للنظر عن كثب في منتجات الذكاء الاصطناعي التي تطالب بأمان قوي. (أحد أصحاب العمل ساري المفعول بالفعل يطلب من الوكالات الانتباه إلى التحيز في تطوير واستخدام الذكاء الاصطناعي.)

من الواضح أن البيت الأبيض حريص على الخروج قبل هذه الموجة الكبيرة القادمة من التكنولوجيا ، بعد أن وقع في موقف ضعيف إلى حد ما بسبب القدرات التخريبية لوسائل التواصل الاجتماعي. التقى الرئيس ونائب الرئيس بقادة الصناعة وطلبا المشورة بشأن استراتيجية وطنية للذكاء الاصطناعي ، كما يخصصان قدرًا كبيرًا من التمويل لمراكز وبرامج أبحاث الذكاء الاصطناعي الجديدة. بالطبع ، يتقدم جهاز العلوم والبحث الوطني عليهم ، حيث يظهر تقرير التحديات والفرص الشامل للغاية (وإن كان بالضرورة قديمًا إلى حد ما) من وزارة الطاقة والمختبرات الوطنية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى