OpenAI و DeepMind و Anthropic لمنح المملكة المتحدة الوصول المبكر إلى النماذج التأسيسية لأبحاث السلامة في الذكاء الاصطناعي
بعد إعلان حكومة المملكة المتحدة الأسبوع الماضي أنها تخطط لاستضافة قمة أمان الذكاء الاصطناعي “العالمية” هذا الخريف ، أطلق رئيس الوزراء ريشي سوناك أسبوع لندن للتكنولوجيا بأخبار أخرى – أخبر رواد المؤتمر أن أوبن إيه آي وجوجل ديب مايند وأنثروبيك قد التزموا لتوفير “الوصول المبكر أو ذي الأولوية” إلى نماذج الذكاء الاصطناعي الخاصة بهم لدعم البحث في التقييم والسلامة.
شهدت Sunak تحولًا سريعًا إلى موضوع أمان الذكاء الاصطناعي في الأسابيع الأخيرة ، بعد عدد من التدخلات من قبل عمالقة الذكاء الاصطناعي الذين حذروا من المخاطر الوجودية وحتى على مستوى الانقراض التي قد تشكلها التكنولوجيا إذا لم يتم تنظيمها بشكل صحيح.
“نحن بصدد القيام بأحدث التقنيات [AI] تتعهد Sunak اليوم بأبحاث السلامة هنا في المملكة المتحدة. “مع 100 مليون جنيه إسترليني لفريق العمل الخبير لدينا ، نخصص تمويلًا أكبر لسلامة الذكاء الاصطناعي أكثر من أي حكومة أخرى.
وقالت الحكومة أيضًا إن فريق عمل السلامة التابع للذكاء الاصطناعي سيركز على نماذج مؤسسة الذكاء الاصطناعي.
أضاف سوناك: “نحن نعمل مع المعامل الحدودية – Google DeepMind و OpenAI و Anthropic”. “ويسعدني أن أعلن أنهم التزموا بمنح الوصول المبكر أو ذي الأولوية إلى النماذج لأغراض البحث والسلامة للمساعدة في بناء تقييمات أفضل ومساعدتنا على فهم الفرص والمخاطر التي تنطوي عليها هذه الأنظمة بشكل أفضل.”
كما كرر رئيس الوزراء إعلانه السابق لقمة السلامة المرتقبة للذكاء الاصطناعي ، ساعيًا إلى تشبيه الجهود بمؤتمرات COP المناخ التي تهدف إلى تحقيق قبول عالمي بشأن معالجة تغير المناخ.
وقال: “مثلما نتحد من خلال COP للتصدي لتغير المناخ ، ستستضيف المملكة المتحدة أول قمة على الإطلاق حول أمان الذكاء الاصطناعي العالمي في وقت لاحق من هذا العام” ، مضيفًا: “أريد أن أجعل المملكة المتحدة ليس فقط موطنًا فكريًا ولكن موطنًا جغرافيًا” ، من تنظيم سلامة الذكاء الاصطناعي العالمي. “
إن التبشير بسلامة الذكاء الاصطناعي هو تغيير ملحوظ في توجهات حكومة سوناك.
في الآونة الأخيرة ، في شهر مارس ، كان في وضع المشجع الكامل للذكاء الاصطناعي – قائلًا في مستند تقني إنه يفضل “a نهج مؤيد للابتكار لتنظيم الذكاء الاصطناعي “. قلل النهج الوارد في الورقة من أهمية مخاوف السلامة من خلال تجنب الحاجة إلى قوانين مخصصة للذكاء الاصطناعي (أو هيئة رقابة مخصصة للذكاء الاصطناعي) لصالح وضع بعض “المبادئ المرنة”. اقترحت الحكومة أيضًا أن الإشراف على تطبيقات الذكاء الاصطناعي يجب أن يتم من قبل الهيئات التنظيمية الحالية مثل هيئة مراقبة مكافحة الاحتكار وهيئة حماية البيانات.
تقدم سريعًا بعد بضعة أشهر ، ويتحدث Sunank الآن عن رغبته في أن تستضيف المملكة المتحدة هيئة مراقبة سلامة عالمية للذكاء الاصطناعي. أو ، على الأقل ، تريد أن تمتلك المملكة المتحدة محادثة أمان الذكاء الاصطناعي من خلال السيطرة على الأبحاث حول كيفية تقييم مخرجات خوارزميات التعلم.
يبدو أن التطورات السريعة في الذكاء الاصطناعي التوليدي جنبًا إلى جنب مع التصريحات العامة من مجموعة من عمالقة التكنولوجيا وشخصيات صناعة الذكاء الاصطناعي التي تحذر من أن التكنولوجيا قد تخرج عن نطاق السيطرة قد أدت إلى إعادة التفكير في استراتيجية سريعة في داونينج ستريت.
ومن الجدير بالذكر أيضًا أن عمالقة الذكاء الاصطناعي قاموا بثني أذن سوناك شخصيًا في الأسابيع الأخيرة ، حيث عُقدت اجتماعات بين رئيس الوزراء والرؤساء التنفيذيين لـ OpenAI و DeepMind و Anthropic قبل وقت قصير من تغير المزاج الحكومي لموسيقى الذكاء الاصطناعي.
إذا التزم هذا الثلاثي من عمالقة الذكاء الاصطناعي بالتزاماتهم بتزويد المملكة المتحدة بوصول متقدم إلى نماذجهم ، فهناك فرصة للبلاد لقيادة البحث في تطوير تقنيات تقييم وتدقيق فعالة – بما في ذلك قبل أن يتم تفكيك أي أنظمة رقابة تشريعية تفرض الشفافية الخوارزمية. في مكان آخر (لا يُتوقع أن يكون مشروع قانون الذكاء الاصطناعي الخاص بالاتحاد الأوروبي ساري المفعول حتى عام 2026 ، على سبيل المثال ؛ على الرغم من أن قانون الخدمات الرقمية للاتحاد الأوروبي ساري بالفعل ويتطلب بالفعل بعض الشفافية الحسابية من عمالقة التكنولوجيا).
في الوقت نفسه ، هناك خطر من أن تجعل المملكة المتحدة نفسها عرضة لاستحواذ الصناعة على جهود السلامة الناشئة في مجال الذكاء الاصطناعي. وإذا تمكنت شركات الذكاء الاصطناعي العملاقة من السيطرة على المحادثة حول أبحاث السلامة في الذكاء الاصطناعي من خلال توفير وصول انتقائي إلى أنظمتها ، فقد يكونون في وضع جيد لتشكيل أي قواعد مستقبلية للذكاء الاصطناعي في المملكة المتحدة يمكن تطبيقها على أعمالهم.
تشير المشاركة الوثيقة لعمالقة تكنولوجيا الذكاء الاصطناعي في الأبحاث الممولة من القطاع العام حول أمان تقنياتهم التجارية قبل تطبيق أي إطار عمل أمان للذكاء الاصطناعي ملزم قانونًا يتم تطبيقه عليهم ، إلى أن لديهم على الأقل مجالًا لتأطير كيفية النظر إلى أمان الذكاء الاصطناعي والمكونات والموضوعات و يتم إعطاء الأولوية للموضوعات (وبالتالي يتم التقليل من شأنها). ومن خلال التأثير على نوع البحث الذي يتم إجراؤه لأنه قد يعتمد على مقدار الوصول الذي توفره.
وفي الوقت نفسه ، حذر علماء أخلاقيات الذكاء الاصطناعي منذ فترة طويلة من أن المخاوف التي تصدرت عناوين الصحف بشأن المخاطر التي يمكن أن تشكلها أنظمة الذكاء الاصطناعي “فائقة الذكاء” على البشر تغرق النقاش حول الأضرار التي تحدث في العالم الحقيقي والتي تولدها تقنيات الذكاء الاصطناعي الحالية ، بما في ذلك التحيز والتمييز وإساءة استخدام الخصوصية وانتهاك حقوق النشر والموارد البيئية. استغلال.
لذا ، في حين أن حكومة المملكة المتحدة قد تنظر إلى شراء عمالقة الذكاء الاصطناعي على أنه انقلاب في العلاقات العامة ، إذا كانت قمة الذكاء الاصطناعي وجهود سلامة الذكاء الاصطناعي الأوسع نطاقاً لإنتاج نتائج قوية وذات مصداقية ، فيجب أن تضمن مشاركة باحثين مستقلين ، ومجموعات ومجموعات من المجتمع المدني. معرضة بشكل غير متناسب لخطر الضرر من الأتمتة ، وليس مجرد إعلان عن خطتها للشراكة بين “شركات الذكاء الاصطناعي الرائعة” والأكاديميين المحليين – نظرًا لأن البحث الأكاديمي غالبًا ما يعتمد بالفعل على التمويل من عمالقة التكنولوجيا.
اكتشاف المزيد من خيال التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.