يستخدم عمال ميكانيكا الترك الذكاء الاصطناعي لأتمتة الإنسان


ضع هذا في إطار أمر لا مفر منه ، لكنه مضحك. ترك الميكانيكية هي خدمة بدت منذ أيامها الأولى وكأنها تدعو إلى خدع ، وبالفعل أظهر الباحثون أن ما يقرب من نصف “التركيين” يبدو أنهم يستخدمون الذكاء الاصطناعي للقيام بمهام كان من المفترض أن يقوم بها البشر على وجه التحديد لأن الذكاء الاصطناعي لا يستطيع ذلك. لقد أغلقنا الحلقة في هذا ، عمل رائع للجميع!

تتيح Amazon’s Mechanical Turk للمستخدمين تقسيم المهام البسيطة إلى أي عدد من المهام الفرعية الصغيرة التي لا تستغرق سوى بضع ثوانٍ للقيام بها ، والتي تدفع بنسات قليلة – لكن العمال المجزأين المتفانين سيؤدون الآلاف ، وبالتالي يحصلون على أجر متواضع ولكن يمكن الاعتماد عليه. كان ، كما قال جيف بيزوس بشكل لا يُنسى في ذلك الوقت ، “ذكاء اصطناعيًا”.

كانت هذه عادةً مهام يصعب أتمتتها بعد ذلك – مثل اختبار CAPTCHA ، أو تحديد شعور الجملة ، أو مجرد “رسم دائرة حول القطة في هذه الصورة” ، أشياء يمكن للأشخاص القيام بها بسرعة وبشكل موثوق. تم استخدامه بحرية من قبل الأشخاص الذين يصنفون البيانات المعقدة نسبيًا والباحثين بهدف الحصول على تقييمات بشرية أو قرارات على نطاق واسع.

تمت تسميته على اسم “الإنسان الآلي” الشهير الذي يلعب في لعبة الشطرنج والذي استخدم في الواقع شخصًا مختبئًا في قاعدته لعمل مسرحياته – كتب بو عملية إزالة معاصرة رائعة لها. أحيانًا تكون الأتمتة صعبة أو مستحيلة ، لكن في مثل هذه الحالات يمكنك صنع نوع من الآلة من الإنسانية. يجب على المرء أن يكون حذرًا حيال ذلك ، لكنه أثبت فائدته على مر السنين.

لكن دراسة أجراها باحثون في EPFL في سويسرا تُظهر أن عمال ميكانيكا الترك يقومون بأتمتة عملهم باستخدام نماذج لغة كبيرة مثل ChatGPT: ثعبان يعض ذيله ، أو ربما يبتلع نفسه تمامًا.

ظهر السؤال عندما فكروا في استخدام خدمة مثل MTurk كـ “إنسان في الحلقة” لتحسين أو التحقق من استجابات LLM ، والتي هي في الأساس غير موثوقة:

من المغري الاعتماد على التعهيد الجماعي للتحقق من مخرجات LLM أو لإنشاء بيانات قياسية ذهبية بشرية للمقارنة. ولكن ماذا لو كان العمال الجماعيون أنفسهم يستخدمون LLM ، على سبيل المثال ، من أجل زيادة إنتاجيتهم ، وبالتالي دخلهم ، على منصات التعهيد الجماعي؟

للحصول على فكرة عامة عن المشكلة ، قاموا بتعيين مهمة “تلخيص مجرد” ليتم إكمالها من قبل التركيين. من خلال التحليلات المختلفة الموضحة في الورقة (التي لم تُنشر بعد أو تمت مراجعتها من قِبل الأقران) ، فإنهم “يقدرون أن 33-46 ٪ من العمال الجماعي استخدموا LLM عند إكمال المهمة”.

بالنسبة للبعض ، لن يكون هذا مفاجأة. من المحتمل وجود مستوى معين من الأتمتة في تركيا منذ أن بدأت المنصة. يتم تحفيز السرعة والموثوقية ، وإذا كان بإمكانك كتابة نص برمجي يتعامل مع طلبات معينة بدقة 90٪ ، فإنك ستحقق قدرًا معقولاً من المال. مع القليل من الإشراف على عمليات المساهمين الفرديين ، كان من المحتم ألا يتم تنفيذ بعض هذه المهام من قبل البشر ، كما هو معلن. لم تكن النزاهة أبدًا هي الدعوى القوية لشركة Amazon ، لذا لم يكن هناك أي معنى للاعتماد عليها.

ولكن لنرى أنها وضعت على هذا النحو ، ولمهمة كانت حتى وقت قريب تبدو وكأنها واحدة لا يستطيع سوى الإنسان القيام بها – تلخيص الورقة بشكل كافٍ – فهي لا تشكك في قيمة ترك الميكانيكية فحسب ، بل تكشف عن جبهة أخرى في أزمة وشيكة ” تدريب الذكاء الاصطناعي على البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي “في مأزق آخر من Ouroboros-esque.

يحذر الباحثون (Veniamin Veselovsky و Manoel Horta Ribeiro و Robert West) من أن هذه المهمة ، اعتبارًا من ظهور LLMs الحديثة ، مناسبة بشكل خاص للأتمتة الخفية ، وبالتالي من المحتمل بشكل خاص أن تقع ضحية لهذه الأساليب. لكن أحدث ما توصل إليه الفن يتقدم بثبات:

أصبحت LLM أكثر شيوعًا يومًا بعد يوم ، والنماذج متعددة الوسائط ، لا تدعم النص فحسب ، بل تدعم أيضًا إدخال وإخراج الصور والفيديو. مع هذا ، يجب اعتبار نتائجنا “كناريًا في منجم الفحم” والتي يجب أن تذكر المنصات والباحثين والعاملين في التجمعات بإيجاد طرق جديدة لضمان أن تظل البيانات البشرية بشرية.

لقد تم وضع نظرية التهديد المتمثل في أكل الذكاء الاصطناعي نفسه لسنوات عديدة وأصبح حقيقة واقعة على الفور تقريبًا بعد نشر واسع النطاق لـ LLMs: نقلت ChatGPT الحيوانات الأليفة من Bing معلوماتها الخاطئة كدعم لمعلومات خاطئة جديدة حول مؤامرة COVID.

إذا كنت لا تستطيع أن تكون متأكدًا بنسبة 100٪ أن شيئًا ما قد قام به إنسان ، فمن الأفضل لك أن تفترض أنه لم يكن كذلك. هذا مبدأ محزن يجب الالتزام به ، لكن ها نحن ذا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى