هذا الأسبوع في منظمة العفو الدولية: تقدم الشركات طواعية لإرشادات الذكاء الاصطناعي – في الوقت الحالي


إن مواكبة صناعة سريعة الحركة مثل الذكاء الاصطناعي هي مهمة صعبة. حتى تتمكن منظمة العفو الدولية من القيام بذلك نيابةً عنك ، إليك تقريرًا مفيدًا عن القصص الحديثة في عالم التعلم الآلي ، جنبًا إلى جنب مع الأبحاث والتجارب البارزة التي لم نقم بتغطيتها بمفردها.

هذا الأسبوع في منظمة العفو الدولية ، رأينا OpenAI و Anthropic و Google و Inflection و Microsoft و Meta و Amazon يلتزمون طواعية بمتابعة أهداف السلامة والشفافية المشتركة للذكاء الاصطناعي قبل أمر تنفيذي مخطط من إدارة بايدن.

كما كتب زميلي ديفين كولدوي ، لا توجد قاعدة أو تطبيق مقترح هنا – الممارسات المتفق عليها طوعية بحتة. لكن التعهدات تشير ، بشكل عام ، إلى المناهج والسياسات التنظيمية للذكاء الاصطناعي التي قد يجدها كل بائع قابلة للتعديل في الولايات المتحدة وكذلك في الخارج.

من بين الالتزامات الأخرى ، تطوعت الشركات لإجراء اختبارات أمان لأنظمة الذكاء الاصطناعي قبل الإصدار ، ومشاركة المعلومات حول تقنيات التخفيف من الذكاء الاصطناعي وتطوير تقنيات العلامات المائية التي تجعل من السهل التعرف على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. قالوا أيضًا إنهم سيستثمرون في الأمن السيبراني لحماية بيانات الذكاء الاصطناعي الخاصة وتسهيل الإبلاغ عن نقاط الضعف ، فضلاً عن إعطاء الأولوية للبحوث المتعلقة بالمخاطر المجتمعية مثل التحيز المنهجي وقضايا الخصوصية.

تعتبر الالتزامات خطوة مهمة بالتأكيد – حتى لو لم تكن قابلة للتنفيذ. لكن المرء يتساءل عما إذا كانت هناك دوافع خفية من جانب المصممين.

وبحسب ما ورد ، صاغت شركة OpenAI مذكرة سياسة داخلية توضح أن الشركة تدعم فكرة طلب تراخيص حكومية من أي شخص يرغب في تطوير أنظمة الذكاء الاصطناعي. أثار الرئيس التنفيذي سام التمان الفكرة لأول مرة في جلسة استماع لمجلس الشيوخ الأمريكي في مايو ، حيث أيد إنشاء وكالة يمكنها إصدار تراخيص لمنتجات الذكاء الاصطناعي – وإلغائها إذا انتهك أي شخص القواعد المحددة.

في مقابلة حديثة مع الصحافة ، أصرت آنا ماكانجو ، نائب الرئيس للشؤون العالمية في OpenAI ، على أن OpenAI لم تكن “تدفع” للحصول على التراخيص وأن الشركة تدعم فقط أنظمة الترخيص لنماذج الذكاء الاصطناعي الأكثر قوة من GPT-4 الحالية لـ OpenAI. لكن التراخيص الصادرة من الحكومة ، إذا تم تنفيذها بالطريقة التي تقترحها OpenAI ، مهدت الطريق لصدام محتمل مع الشركات الناشئة ومطوري البرامج مفتوحة المصدر الذين قد يرون أنها محاولة لجعل اقتحام الآخرين أكثر صعوبة.

أعتقد أن ديفين قالها بشكل أفضل عندما وصفها لي بأنها “تلقي بالمسامير على الطريق من ورائها في سباق”. على أقل تقدير ، فإنه يوضح الطبيعة ذات الوجهين لشركات الذكاء الاصطناعي التي تسعى إلى استرضاء المنظمين أثناء تشكيل السياسة لصالحهم (في هذه الحالة وضع المتنافسين الصغار في وضع غير موات) وراء الكواليس.

إنها حالة مقلقة. ولكن إذا صعد صانعو السياسات إلى لوحة القيادة ، فهناك أمل حتى الآن في الحصول على ضمانات كافية دون تدخل لا داعي له من القطاع الخاص.

فيما يلي قصص أخرى للذكاء الاصطناعي تم ملاحظتها من الأيام القليلة الماضية:

  • يتنحى رئيس ثقة وأمان شركة OpenAI: أعلن ديف ويلنر ، المخضرم في الصناعة الذي كان رئيسًا للثقة والأمان في OpenAI ، في منشور على LinkedIn أنه ترك الوظيفة وانتقل إلى منصب استشاري. قالت شركة أوبن إيه آي في بيان إنها تسعى للحصول على بديل وأن مدير التكنولوجيا ميرا موراتي سيدير ​​الفريق على أساس مؤقت.
  • تعليمات مخصصة لـ ChatGPT: في المزيد من أخبار OpenAI ، أطلقت الشركة تعليمات مخصصة لمستخدمي ChatGPT حتى لا يضطروا إلى كتابة نفس التعليمات إلى برنامج chatbot في كل مرة يتفاعلون معه.
  • الذكاء الاصطناعي في كتابة الأخبار من Google: تختبر Google أداة تستخدم الذكاء الاصطناعي لكتابة القصص الإخبارية وبدأت في عرضها على المنشورات ، وفقًا لتقرير جديد من The New York Times. عرضت شركة التكنولوجيا العملاقة نظام الذكاء الاصطناعي على نيويورك تايمز وواشنطن بوست ومالك صحيفة وول ستريت جورنال نيوز كورب.
  • تختبر Apple روبوت دردشة شبيه بـ ChatGPT: تعمل شركة Apple على تطوير الذكاء الاصطناعي لتحدي OpenAI و Google وغيرها ، وفقًا لتقرير جديد صادر عن Mark Gurman من Bloomberg. على وجه التحديد ، أنشأت شركة التكنولوجيا العملاقة روبوت محادثة يشير إليه بعض المهندسين داخليًا باسم “Apple GPT”.
  • إصدارات Meta Llama 2: كشفت Meta النقاب عن عائلة جديدة من نماذج الذكاء الاصطناعي ، Llama 2 ، المصممة لتشغيل التطبيقات على غرار برامج OpenAI’s ChatGPT و Bing Chat وروبوتات الدردشة الحديثة الأخرى. تدرب Meta على مزيج من البيانات المتاحة للجمهور ، وتدعي أن أداء Llama 2 قد تحسن بشكل ملحوظ مقارنة بالجيل السابق من نماذج Llama.
  • احتجاج الكتّاب على الذكاء الاصطناعي التوليدي: يتم تدريب أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT على البيانات المتاحة للجمهور ، بما في ذلك الكتب – ولا يسعد جميع منشئي المحتوى بهذا الترتيب. في رسالة مفتوحة موقعة من قبل أكثر من 8500 مؤلف للروايات الخيالية والواقعية والشعرية ، تم تكليف شركات التكنولوجيا التي تقف وراء نماذج لغوية كبيرة مثل ChatGPT و Bard و LLaMa وغيرها باستخدام كتاباتهم دون إذن أو تعويض.
  • تقدم Microsoft Bing Chat إلى المؤسسة: في مؤتمرها السنوي Inspire ، أعلنت Microsoft عن Bing Chat Enterprise ، وهي نسخة من روبوت الدردشة المدعوم من Bing Chat AI مع ضوابط خصوصية البيانات والحوكمة التي تركز على الأعمال. باستخدام Bing Chat Enterprise ، لا يتم حفظ بيانات الدردشة ، ولا يمكن لـ Microsoft عرض بيانات العمل أو الموظف الخاص بالعميل ولا يتم استخدام بيانات العميل لتدريب نماذج الذكاء الاصطناعي الأساسية.

المزيد من التعلم الآلي

من الناحية الفنية ، كان هذا أيضًا عنصرًا إخباريًا ، لكن تجدر الإشارة إليه هنا في قسم البحث. عرضت Fable Studios ، التي صنعت أفلامًا قصيرة ثلاثية الأبعاد و CG سابقًا للواقع الافتراضي ووسائط أخرى ، نموذجًا للذكاء الاصطناعي تسميه Showrunner (تدعي) أنه يمكنه كتابة برنامج تلفزيوني كامل وتوجيهه والتصرف فيه وتحريره – في العرض التوضيحي ، كان South Park.

أنا من رأيين في هذا. من ناحية ، أعتقد أن متابعة هذا الأمر على الإطلاق ، ناهيك عن إضراب هوليوود الضخم الذي ينطوي على قضايا التعويض والذكاء الاصطناعي ، هو أمر سيئ نوعًا ما. على الرغم من أن الرئيس التنفيذي إدوارد ساتشي قال إنه يعتقد أن الأداة تضع القوة في أيدي المبدعين ، فإن العكس هو قابل للجدل أيضًا. على أي حال ، لم يتم استقباله بشكل جيد من قبل الأشخاص في الصناعة.

من ناحية أخرى ، إذا لم يستكشف شخص ما على الجانب الإبداعي (وهو Saatchi) هذه القدرات ويظهرها ، فسيتم استكشافها وإثباتها من قبل الآخرين الذين لديهم قدر أقل من الانزعاج حول استخدامها. حتى لو كانت الادعاءات التي تقدمها Fable موسعة بعض الشيء لما أظهرته بالفعل (والتي لها قيود خطيرة) فهي مثل DALL-E الأصلية من حيث أنها أثارت النقاش والقلق بالفعل على الرغم من أنها لم تكن بديلاً عن فنان حقيقي. سيكون للذكاء الاصطناعي مكان في الإنتاج الإعلامي بطريقة أو بأخرى – ولكن لمجموعة كاملة من الأسباب يجب التعامل معها بحذر.

على الجانب السياسي ، كان لدينا منذ فترة وجيزة قانون تفويض الدفاع الوطني (كالعادة) مع بعض التعديلات السياسية السخيفة حقًا والتي لا علاقة لها بالدفاع. ولكن من بينها كانت إحدى الإضافات التي يجب على الحكومة أن تستضيف حدثًا حيث يمكن للباحثين أن يبذلوا قصارى جهدهم للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. هذا النوع من الأشياء يقترب بالتأكيد من مستويات “الأزمة الوطنية” ، لذا من الجيد على الأرجح التراجع هناك.

في Disney Research ، يحاولون دائمًا إيجاد طريقة للربط بين الرقمي والواقعي – لأغراض المتنزه ، على الأرجح. في هذه الحالة ، طوروا طريقة لرسم خريطة لحركات افتراضية لشخصية أو التقاط حركة (على سبيل المثال لكلب سي جي في فيلم) على روبوت حقيقي ، حتى لو كان هذا الروبوت شكلًا أو حجمًا مختلفًا. إنه يعتمد على نظامي تحسين ، كل منهما يعلم الآخر بما هو مثالي وما هو ممكن ، نوعًا ما مثل الأنا الصغيرة والأنا الفائقة. هذا من شأنه أن يجعل من السهل جدًا جعل الكلاب الآلية تتصرف مثل الكلاب العادية ، لكنها بالطبع قابلة للتعميم على أشياء أخرى أيضًا.

وهنا نأمل أن يساعدنا الذكاء الاصطناعي في توجيه العالم بعيدًا عن التعدين في قاع البحر للحصول على المعادن ، لأن هذه بالتأكيد فكرة سيئة. وضعت دراسة متعددة المؤسسات قدرة الذكاء الاصطناعي على غربلة الإشارة من الضوضاء إلى العمل للتنبؤ بموقع المعادن القيمة في جميع أنحاء العالم. كما يكتبون في الملخص:

في هذا العمل ، نتبنى التعقيد والفوضى المتأصلة في الأنظمة الجيولوجية والكيميائية والبيولوجية المتشابكة لكوكبنا من خلال استخدام التعلم الآلي لتوصيف الأنماط المضمنة في الأبعاد المتعددة لوجود المعادن والجمعيات.

تنبأت الدراسة بالفعل وتحققت من مواقع اليورانيوم والليثيوم والمعادن الثمينة الأخرى. وماذا عن هذا لخط ختامي: النظام “سيعزز فهمنا للتمعدن والبيئات المعدنية على الأرض ، عبر نظامنا الشمسي ، وعبر الزمن العميق.” مذهل.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى