احصل على دليل ، كما تقول لجنة حول الذكاء الاصطناعي التوليدي: يتم “نشره كمراقبة”


في وقت سابق اليوم في مؤتمر بلومبرج في سان فرانسيسكو ، ظهرت بعض أكبر الأسماء في الذكاء الاصطناعي ، بما في ذلك ، لفترة وجيزة ، سام ألتمان من شركة OpenAI ، الذي أنهى للتو جولته العالمية التي استمرت شهرين ، ومؤسس Stability AI عماد مستك. ومع ذلك ، أجريت واحدة من أكثر المحادثات إقناعًا في وقت لاحق بعد الظهر ، في حلقة نقاش حول أخلاقيات الذكاء الاصطناعي.

يضم ميريديث ويتاكر ، رئيسة تطبيق المراسلة الآمنة Signal ؛ المؤسس المشارك والرئيس التنفيذي لشركة Credo AI نافرينا سينغ ؛ وأليكس حنا ، مدير الأبحاث في معهد أبحاث الذكاء الاصطناعي الموزع ، كان لدى الثلاثة رسالة موحدة للجمهور ، وهي: لا تشتت انتباههم كثيرًا بالوعود والتهديدات المرتبطة بمستقبل الذكاء الاصطناعي. إنه ليس سحرًا ، وليس مؤتمتًا بالكامل ، و- حسب ويتاكر- في هذه اللحظة بالذات ، إنه تدخلي يتجاوز أي شيء يفهمه معظم الأمريكيين على ما يبدو.

هانا ، على سبيل المثال ، أشارت إلى العديد من الأشخاص حول العالم الذين يساعدون في تدريب نماذج اللغة الكبيرة اليوم ، مما يشير إلى أن هؤلاء الأفراد يتجاهلون بعضًا من التغطية المثيرة للذكاء الاصطناعي التوليدي جزئيًا لأن العمل غير مثير للإعجاب ويرجع ذلك جزئيًا إلى لا يتناسب مع السرد الحالي حول الذكاء الاصطناعي.

قالت حنا: “نعلم من التقارير. . . أن هناك جيشًا من العمال يقومون بعمل التعليقات التوضيحية خلف الكواليس حتى لجعل هذه الأشياء تعمل بأي درجة – العمال الذين يعملون مع Amazon Mechanical Turk ، الأشخاص الذين يعملون معهم [the training data company Sama — in Venezuela, Kenya, the U.S., actually all over the world . . .They are actually doing the labeling, whereas Sam [Altman] وعماد [Mostaque] وكل هؤلاء الأشخاص الآخرين الذين سيقولون هذه الأشياء هم سحر – لا. هناك بشر. . . . يجب أن تظهر هذه الأشياء على أنها مستقلة ولديها هذا القشرة ، ولكن هناك الكثير من العمل البشري تحتها “.

التعليقات التي أدلى بها ويتاكر بشكل منفصل – الذي عمل سابقًا في Google ، وشارك في تأسيس معهد AI Now التابع لجامعة نيويورك وكان مستشارًا للجنة التجارة الفيدرالية – كانت أكثر تحديدًا (وكان لها تأثير أيضًا على رد فعل الجمهور المتحمس تجاههم). كانت رسالتها مفادها أن روبوتات الدردشة مثل ChatGPT و Bard ، كما هو الحال في العالم الآن ، تعتبر خطيرة ، خاصة وأن القوة تزداد تركيزًا من قبل أولئك الموجودين في الجزء العلوي من هرم الذكاء الاصطناعي المتقدم.

قال ويتاكر ، “أود أن أقول ربما بعض الأشخاص في هذا الجمهور هم من مستخدمي الذكاء الاصطناعي ، لكن غالبية السكان هم من موضوع الذكاء الاصطناعي. . . هذه ليست مسألة اختيار فردي. معظم الطرق التي يستكمل بها الذكاء الاصطناعي حياتنا تجعل القرارات التي تحدد وصولنا إلى الموارد للفرصة تتم خلف الكواليس بطرق ربما لا نعرفها حتى “.

أعطى ويتاكر مثالاً لشخص دخل إلى أحد البنوك وطلب قرضًا. يمكن إنكار هذا الشخص وليس لديه فكرة عن وجود نظام فيه [the] من المحتمل أن تكون مدعومة من قبل بعض Microsoft API التي حددت ، بناءً على وسائل التواصل الاجتماعي المكسورة ، أنني لست جديراً بالائتمان. لن أعرف أبدًا [because] لا توجد آلية بالنسبة لي لمعرفة ذلك “. وتابعت أن هناك طرقًا لتغيير هذا ، لكن التغلب على التسلسل الهرمي الحالي للسلطة من أجل القيام بذلك هو أقرب إلى المستحيل. “لقد كنت على الطاولة منذ 15 عامًا و 20 عامًا. لدي كان على الطاولة. التواجد على الطاولة بلا قوة لا شيء “.

بالتأكيد ، قد يتفق الكثير من الأشخاص الضعفاء مع ويتاكر ، بما في ذلك موظفي OpenAI و Google الحاليين والسابقين الذين يقال إنهم كانوا حذرين في أوقات من نهج شركاتهم لإطلاق منتجات الذكاء الاصطناعي.

في الواقع ، سألت سارة فريار ، وسيطة بلومبرج ، اللجنة كيف يمكن للموظفين المعنيين التحدث دون خوف من فقدان وظائفهم ، وأجاب سينغ – الذي تساعد شركته الناشئة الشركات في حوكمة الذكاء الاصطناعي -: “أعتقد أن الكثير من ذلك يعتمد على القيادة والشركة القيم بصراحة. . . . لقد رأينا حالات تلو الأخرى في العام الماضي عندما تم التخلي عن فرق الذكاء الاصطناعي المسؤولة “.

في غضون ذلك ، هناك الكثير مما لا يفهمه الأشخاص العاديون حول ما يحدث ، كما اقترح ويتاكر ، واصفًا الذكاء الاصطناعي بأنه “تقنية مراقبة”. وأوضحت في مواجهة الحشد ، مشيرة إلى أن الذكاء الاصطناعي “يتطلب المراقبة في شكل مجموعات البيانات الضخمة هذه التي ترسخ وتوسع الحاجة إلى المزيد والمزيد من البيانات ، والمزيد والمزيد من عمليات الجمع الحميمة. الحل لكل شيء هو المزيد من البيانات ، المزيد من المعرفة المجمعة في أيدي هذه الشركات. لكن يتم نشر هذه الأنظمة أيضًا كأجهزة مراقبة. وأعتقد أنه من المهم حقًا إدراك أنه لا يهم ما إذا كان ناتج نظام ذكاء اصطناعي يتم إنتاجه من خلال بعض التخمينات الإحصائية الاحتمالية ، أو ما إذا كانت بيانات من برج خلوي تثليث موقعي. تلك البيانات تصبح بيانات عني. ليس من الضروري أن تكون صحيحة. لا يحتاج إلى أن يعكس من أنا أو مكاني. لكنها تتمتع بقوة كبيرة على حياتي ، ويتم وضع تلك القوة في أيدي هذه الشركات “.

وأضافت أن “مخطط Venn لمخاوف الذكاء الاصطناعي ومخاوف الخصوصية يمثل دائرة”.

من الواضح أن ويتاكر لديها أجندتها الخاصة إلى حد ما. كما قالت نفسها في الحدث ، “هناك عالم تستمر فيه Signal وغيرها من تقنيات الحفاظ على الخصوصية المشروعة” لأن الناس يصبحون أقل راحة مع تركيز القوة هذا.

ولكن أيضًا ، إذا لم يكن هناك ما يكفي من التراجع وقريبًا – مع تسارع التقدم في الذكاء الاصطناعي ، تتسارع التأثيرات المجتمعية أيضًا – سنستمر في السير على طريق “طريق مليء بالضجيج نحو الذكاء الاصطناعي” ، كما قالت ، “حيث تترسخ هذه القوة وتم تجنيسهم تحت ستار المخابرات ويتم مراقبتنا إلى حد كبير [of having] وكالة قليلة جدًا جدًا على حياتنا الفردية والجماعية “.

هذا “القلق وجودي ، وهو أكبر بكثير من إطار الذكاء الاصطناعي الذي يتم تقديمه غالبًا”.

وجدنا المناقشة آسرة. إذا كنت ترغب في رؤية كل شيء ، فقد نشرته بلومبرج هنا منذ ذلك الحين.

أعلاه: رئيسة Signal ميريديث ويتاكر


اكتشاف المزيد من خيال التقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من خيال التقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading