العمال الذين جعلوا ChatGPT أقل ضررًا يطلبون من المشرعين وقف الاستغلال المزعوم من قبل Big Tech
قدم العمال الكينيون الذين ساعدوا في إزالة المحتوى الضار على ChatGPT ، محرك البحث الذكي OpenAI الذي ينشئ محتوى بناءً على مطالبات المستخدم ، التماسًا أمام المشرعين في البلاد يدعوهم إلى بدء تحقيقات حول تعهيد Big Tech إدارة المحتوى وعمل الذكاء الاصطناعي في كينيا.
يريد مقدمو الالتماس إجراء تحقيقات في “طبيعة العمل وظروف العمل والعمليات” لشركات التكنولوجيا الكبرى التي تقوم بتعهيد الخدمات في كينيا من خلال شركات مثل Sama – والتي تقع في قلب العديد من الدعاوى القضائية بشأن الاستغلال المزعوم وخرق النقابات وتسريح جماعي غير قانوني لمشرفي المحتوى.
ويأتي الالتماس في أعقاب تقرير Time الذي عرض بالتفصيل الأجر الذي يبعث على الشفقة لعمال شركة Sama والذي جعل ChatGPT أقل سمية ، وطبيعة عملهم ، والتي تتطلب قراءة وتسمية نص رسومي ، بما في ذلك وصف مشاهد القتل والوحشية والاغتصاب. ذكر التقرير أنه في أواخر عام 2021 ، تعاقدت شركة OpenAI مع شركة Sama من أجل “تسمية الأوصاف النصية للاعتداء الجنسي وخطاب الكراهية والعنف” كجزء من العمل لبناء أداة (تم تضمينها في ChatGPT) للكشف عن المحتوى السام.
يقول العمال إنهم تعرضوا للاستغلال ولم يقدموا لهم الدعم النفسي والاجتماعي ، ومع ذلك فقد تعرضوا لمحتوى ضار أصابهم بـ “مرض عقلي حاد”. يريد العمال من المشرعين “تنظيم الاستعانة بمصادر خارجية للتكنولوجيا الضارة والخطيرة” وحماية العمال الذين يقومون بذلك.
كما أنهم يدعونهم إلى سن تشريعات تنظم “الاستعانة بمصادر خارجية للعمل التكنولوجي الضار والخطير وحماية العمال الذين يشاركون من خلال مثل هذه الارتباطات”.
تقول سما إنها تعتبر 25٪ من شركات Fortune 50 ، بما في ذلك Google و Microsoft ، من عملائها. يتمثل العمل الرئيسي للشركة التي تتخذ من سان فرانسيسكو مقراً لها في شرح بيانات رؤية الكمبيوتر وتنظيمها والتحقق من صحتها. توظف أكثر من 3000 شخص عبر مراكزها ، بما في ذلك المركز الموجود في كينيا. في وقت سابق من هذا العام ، أسقطت سما خدمات الإشراف على المحتوى للتركيز على شرح بيانات رؤية الكمبيوتر ، مما أدى إلى تسريح 260 عاملاً.
أقر رد OpenAI على الاستغلال المزعوم بأن العمل كان صعبًا ، مضيفًا أنه وضع معايير أخلاقية وصحية وشاركها (دون إعطاء مزيد من التفاصيل حول الإجراءات الدقيقة) مع تعليقات البيانات التوضيحية الخاصة به ليتم تسليم العمل “بشكل إنساني وبإرادة”.
وأشاروا إلى أنه لبناء ذكاء اصطناعي عام آمن ومفيد ، كان التعليق التوضيحي للبيانات البشرية أحد التدفقات العديدة لعملها لجمع التعليقات البشرية وتوجيه النماذج نحو سلوك أكثر أمانًا في العالم الحقيقي.
قال المتحدث باسم أوبن إيه آي: “نحن ندرك أن هذا العمل يمثل تحديًا للباحثين والعاملين في مجال الشرح في كينيا وحول العالم – لقد كانت جهودهم لضمان سلامة أنظمة الذكاء الاصطناعي قيّمة للغاية”.
أخبرت سما TechCrunch أنها منفتحة للعمل مع الحكومة الكينية “لضمان تطبيق إجراءات الحماية الأساسية في جميع الشركات”. وقالت إنها ترحب بتدقيق طرف ثالث لظروف العمل ، مضيفة أن الموظفين لديهم قنوات متعددة لإثارة المخاوف ، وأنه قد “أجرى تقييمات وتدقيقات خارجية وداخلية متعددة لضمان دفع أجور عادلة وتوفير بيئة عمل كريمة. “
اكتشاف المزيد من خيال التقنية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.