يجب أن نكون جميعًا قلقين بشأن تسلل الذكاء الاصطناعي إلى العمل الجماعي
ورقة جديدة من الباحثين في الجامعة السويسرية EPFL يشير إلى أن ما بين 33٪ و 46٪ من العاملين الموزعين على خدمة Amazon Mechanical Turk يبدو أنهم “خدعوا” عند أداء مهمة معينة تم تكليفهم بها ، حيث استخدموا أدوات مثل ChatGPT للقيام ببعض من عمل. إذا كانت هذه الممارسة منتشرة ، فقد تكون مشكلة خطيرة للغاية.
لطالما كانت Amazon’s Mechanical Turk ملجأ للمطورين المحبطين الذين يرغبون في إنجاز أعمال من قبل البشر. باختصار ، إنها واجهة برمجة تطبيقات (API) تغذي المهام إلى البشر ، الذين يقومون بها ثم يعيدون النتائج. عادة ما تكون هذه المهام من النوع الذي ترغب في أن تكون أجهزة الكمبيوتر أفضل فيه. في Amazon ، سيكون أحد الأمثلة على مثل هذه المهام: “رسم مربعات محيط لبناء مجموعات بيانات عالية الجودة لنماذج رؤية الكمبيوتر ، حيث قد تكون المهمة غامضة للغاية بالنسبة لحل ميكانيكي بحت وشاسعة جدًا حتى لفريق كبير من الخبراء البشريين. “
يتعامل علماء البيانات مع مجموعات البيانات بشكل مختلف وفقًا لأصلها – إذا تم إنشاؤها بواسطة أشخاص أو نموذج لغة كبير (LLM). ومع ذلك ، فإن المشكلة هنا مع Mechanical Turk أسوأ مما تبدو عليه: يتوفر الذكاء الاصطناعي الآن بثمن بخس بما يكفي بحيث يعتمد مديرو المنتجات الذين يختارون استخدام Mechanical Turk بدلاً من حل يتم إنشاؤه آليًا على أن يكون البشر أفضل في شيء ما من الروبوتات. يمكن أن يكون لتسمم هذه الكمية الجيدة من البيانات تداعيات خطيرة.
قال الباحثون: “إن التمييز بين اللغة الإنجليزية واللغة الإنجليزية والنص الذي تم إنشاؤه بواسطة الإنسان أمر صعب لكل من نماذج التعلم الآلي والبشر على حد سواء”. لذلك ابتكر الباحثون منهجية لمعرفة ما إذا كان المحتوى المستند إلى النص قد تم إنشاؤه بواسطة إنسان أو آلة.
اشتمل الاختبار على مطالبة عمال التعهيد الجماعي بتكثيف ملخصات الأبحاث من New England Journal of Medicine في ملخصات مكونة من 100 كلمة. من الجدير بالذكر أن هذا هو بدقة نوع المهمة التي تجيدها تقنيات الذكاء الاصطناعي المولدة مثل ChatGPT.