يتنحى ديف ويلنر ، رئيس الثقة والأمان في شركة OpenAI

يتنحى ديف ويلنر ، رئيس الثقة والأمان في شركة OpenAI


هناك تغيير كبير في الموظفين على قدم وساق في OpenAI ، قوة الذكاء الاصطناعي التي أدخلت بمفردها تقريبًا مفهوم الذكاء الاصطناعي التوليفي في الخطاب العام العالمي مع إطلاق ChatGPT. أعلن ديف ويلنر ، المخضرم في الصناعة والذي كان رئيس قسم الثقة والأمان في الشركة الناشئة ، في منشور على LinkedIn الليلة الماضية أنه ترك الوظيفة وانتقل إلى منصب استشاري. قال إنه يخطط لقضاء المزيد من الوقت مع عائلته الشابة. لقد كان في الدور لمدة عام ونصف.

تأتي مغادرته في وقت حرج بالنسبة لعالم الذكاء الاصطناعي.

اعتمادات الصورة: ينكدين (يفتح في نافذة جديدة) تحت CC BY 2.0 (يفتح في نافذة جديدة) رخصة.

إلى جانب كل الإثارة حول إمكانات منصات الذكاء الاصطناعي التوليدية – التي تستند إلى نماذج لغات كبيرة وتتميز بسرعة الإضاءة في إنتاج نصوص وصور وموسيقى يتم إنشاؤها بحرية والمزيد بناءً على توجيهات بسيطة من المستخدمين – كانت هناك قائمة متزايدة من الأسئلة. ما هي أفضل السبل لتنظيم النشاط والشركات في هذا العالم الجديد الشجاع؟ ما هي أفضل السبل للتخفيف من أي آثار ضارة عبر مجموعة كاملة من القضايا؟ الثقة والأمان جزءان أساسيان من تلك المحادثات.

اليوم فقط ، من المقرر أن يظهر رئيس OpenAI جريج بروكمان في البيت الأبيض جنبًا إلى جنب مع التنفيذيين من Anthropic و Google و Inflection و Microsoft و Meta و Amazon لتأييد الالتزامات الطوعية لمتابعة أهداف السلامة والشفافية المشتركة قبل أمر تنفيذي لمنظمة العفو الدولية قيد التنفيذ. يأتي ذلك في أعقاب الكثير من الضوضاء في أوروبا المتعلقة بتنظيم الذكاء الاصطناعي ، فضلاً عن تحول المشاعر بين البعض الآخر.

لا تضيع أهمية كل هذا في OpenAI ، التي سعت إلى وضع نفسها كلاعب واعي ومسؤول في الميدان.

لا يشير Willner إلى أي من ذلك على وجه التحديد في منشوره على LinkedIn. بدلاً من ذلك ، يحافظ على مستوى عالٍ ، مشيرًا أن متطلبات وظيفته في OpenAI تحولت إلى “مرحلة عالية الكثافة” بعد إطلاق ChatGPT.

كتب: “أنا فخور بكل ما أنجزه فريقنا في الفترة التي قضيتها في OpenAI ، وبينما كانت وظيفتي واحدة من أروع الوظائف وأكثرها إثارة للاهتمام التي يمكن الحصول عليها اليوم ، فقد نمت أيضًا بشكل كبير في نطاقها وحجمها منذ أن انضممت لأول مرة”. بينما تعهد هو وزوجته – شاريوت ويلنر ، وهي أيضًا متخصصة في الثقة والأمان – بالتزامات بوضع الأسرة دائمًا في المرتبة الأولى ، قال: “في الأشهر التي أعقبت إطلاق ChatGPT ، وجدت صعوبة متزايدة في الحفاظ على نهايتي من الصفقة.”

كان ويلنر في منصبه في OpenAI لمدة 1.5 عام فقط ، لكنه أتى من حياة مهنية طويلة في هذا المجال تضمنت قيادة فرق الثقة والأمان في Facebook و Airbnb.

إن عمل Facebook مثير للاهتمام بشكل خاص. هناك ، كان موظفًا مبكرًا ساعد في توضيح موقف الشركة الأول لمعايير المجتمع ، والذي لا يزال يستخدم كأساس لنهج الشركة اليوم.

كانت تلك فترة تكوينية للغاية للشركة ، ويمكن القول – نظرًا لتأثير Facebook على كيفية تطور وسائل التواصل الاجتماعي على مستوى العالم – للإنترنت والمجتمع بشكل عام. تميزت بعض تلك السنوات بمواقف صريحة للغاية بشأن حرية التعبير ، وكيف احتاج فيسبوك إلى مقاومة الدعوات لكبح جماح المجموعات المثيرة للجدل والمنشورات المثيرة للجدل.

إحدى الأمثلة على ذلك كانت الخلاف الكبير للغاية ، في عام 2009 ، الذي ظهر في المنتدى العام حول كيفية تعامل Facebook مع الحسابات والمنشورات من منكري الهولوكوست. شعر بعض الموظفين والمراقبين الخارجيين أن على Facebook واجب اتخاذ موقف وحظر تلك المنشورات. يعتقد آخرون أن القيام بذلك يشبه الرقابة وأرسلوا رسالة خاطئة حول الخطاب الحر.

كان ويلنر في المعسكر الأخير ، معتقدًا أن “خطاب الكراهية” ليس هو نفسه “الضرر المباشر” وبالتالي لا ينبغي أن يتم الإشراف عليه بنفس الطريقة. “أنا لا أعتقد أن إنكار الهولوكوست ، كفكرة عنه [sic] الخاصة ، تمثل بطبيعتها تهديدًا لسلامة الآخرين “، كتب في ذلك الوقت. (للحصول على انفجار من ماضي TechCrunch ، راجع المنشور الكامل حول هذا هنا.)

بالنظر إلى الوراء ، نظرًا لمدى ما حدث ، كان موقفًا ساذجًا وقصير النظر. لكن يبدو أن بعض هذه الأفكار على الأقل قد تطورت بالفعل. بحلول عام 2019 ، لم يعد يعمل في الشبكة الاجتماعية ، كان يتحدث ضد الطريقة التي أرادت بها الشركة منح السياسيين والشخصيات العامة استثناءات معتدلة أقل للمحتوى.

ولكن إذا كانت الحاجة إلى إرساء الأساس الصحيح على Facebook أكبر مما كان متوقعًا في ذلك الوقت ، فيمكن القول إن هذا هو الحال الآن بشكل أكبر للموجة الجديدة من التكنولوجيا. وفقًا لقصة New York Times منذ أقل من شهر ، تم إحضار Willner إلى OpenAI في البداية لمساعدتها في معرفة كيفية الحفاظ على Dall-E ، منشئ صور الشركة الناشئة ، من إساءة استخدام واستخدامه في أشياء مثل إنشاء مواد إباحية للأطفال باستخدام الذكاء الاصطناعي.

ولكن كما يقول المثل ، فإن شركة OpenAI (والصناعة) بحاجة إلى هذه السياسة أمس. قال ديفيد ثيل ، كبير التقنيين في مرصد ستانفورد للإنترنت ، لصحيفة نيويورك تايمز: “في غضون عام ، سنصل إلى حالة مشكلة كبيرة جدًا في هذه المنطقة”.

الآن ، بدون ويلنر ، من الذي سيقود أوبن إيه آي لمعالجة ذلك؟

(لقد تواصلنا مع OpenAI للتعليق وسنقوم بتحديث هذا المنشور بأي ردود.)

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى