مجموعة المستهلكين تدعو الاتحاد الأوروبي إلى التحقيق على وجه السرعة في “ مخاطر الذكاء الاصطناعي التوليدي “


يقف المنظمون الأوروبيون على مفترق طرق حول كيفية تنظيم الذكاء الاصطناعي – واستخدامه تجاريًا وغير تجاري في نهاية المطاف – في المنطقة ، واليوم أصبحت أكبر مجموعة مستهلكين في الاتحاد الأوروبي ، BEUC ، تضع موقفها الخاص: توقف عن التباطؤ ، و وقالت “بدء تحقيقات عاجلة في مخاطر الذكاء الاصطناعي التوليدي” الآن.

لقد فتح الذكاء الاصطناعي التوليدي مثل ChatGPT جميع أنواع الاحتمالات للمستهلكين ، ولكن هناك مخاوف جدية بشأن الكيفية التي يمكن أن تخدع بها هذه الأنظمة الناس وتتلاعب بهم وتؤذيهم. وقالت أورسولا باشل ، نائبة المدير العام لـ BEUC ، في بيان: “يمكن أيضًا استخدامها لنشر معلومات مضللة ، وإدامة التحيزات القائمة التي تزيد من التمييز ، أو تُستخدم في الاحتيال”. “ندعو سلطات السلامة والبيانات وحماية المستهلك إلى بدء التحقيقات الآن وعدم الانتظار بلا حراك لحدوث جميع أنواع الضرر الذي يلحق بالمستهلكين قبل أن يتخذوا أي إجراء. تنطبق هذه القوانين على جميع المنتجات والخدمات ، سواء كانت مدعومة بالذكاء الاصطناعي أم لا ويجب على السلطات تنفيذها “.

أصدرت BEUC ، التي تمثل منظمات المستهلكين في 13 دولة في الاتحاد الأوروبي ، الدعوة لتتزامن مع تقرير صدر اليوم من أحد أعضائها ، Forbrukerrådet في النرويج.

هذا التقرير النرويجي لا لبس فيه في موقفه: الذكاء الاصطناعي يسبب أضرارًا للمستهلكين (عنوان التقرير يقول كل شيء: “الشبح في الآلة: معالجة أضرار المستهلك للذكاء الاصطناعي التوليدي”) ويطرح العديد من المشكلات الإشكالية.

في حين أن بعض التقنيين كانوا يقرعون أجراس الإنذار حول الذكاء الاصطناعي كأداة لانقراض البشر ، كان الجدل في أوروبا أكثر صراحة حول تأثيرات الذكاء الاصطناعي في مجالات مثل الوصول العادل للخدمة والمعلومات المضللة والمنافسة.

فهو يسلط الضوء ، على سبيل المثال ، على كيفية قيام “بعض مطوري الذكاء الاصطناعي بما في ذلك شركات التكنولوجيا الكبيرة” بإغلاق الأنظمة عن التدقيق الخارجي مما يجعل من الصعب معرفة كيفية جمع البيانات أو عمل الخوارزميات ؛ حقيقة أن بعض الأنظمة تنتج معلومات غير صحيحة بقدر ما تقدم النتائج الصحيحة ، مع عدم وجود المستخدمين في كثير من الأحيان أكثر حكمة حول ما قد تكون عليه ؛ الذكاء الاصطناعي المصمم لتضليل المستخدمين أو التلاعب بهم ؛ قضية التحيز بناءً على المعلومات التي يتم إدخالها في نموذج معين للذكاء الاصطناعي ؛ والأمن ، وتحديداً كيف يمكن تسليح الذكاء الاصطناعي لخداع الأشخاص أو خرق الأنظمة.

على الرغم من أن إصدار ChatGPT من OpenAI قد وضع الذكاء الاصطناعي وإمكانية وصوله في الوعي العام ، فإن تركيز الاتحاد الأوروبي على تأثير الذكاء الاصطناعي ليس جديدًا. وذكر مناقشة قضايا “المخاطر” مرة أخرى في عام 2020 ، على الرغم من أن تلك الجهود الأولية كانت بمثابة الأساس لزيادة “الثقة” في التكنولوجيا.

بحلول عام 2021 ، كانت تتحدث بشكل أكثر تحديدًا عن تطبيقات الذكاء الاصطناعي “عالية الخطورة” ، وتعاونت حوالي 300 منظمة معًا للدعوة إلى حظر بعض أشكال الذكاء الاصطناعي تمامًا.

أصبحت المشاعر أكثر أهمية بمرور الوقت ، حيث يعمل الاتحاد الأوروبي من خلال قوانينه على مستوى المنطقة. في الأسبوع الماضي ، تحدثت مارجريت فيستاجر ، رئيسة المنافسة في الاتحاد الأوروبي ، على وجه التحديد عن كيف يشكل الذكاء الاصطناعي مخاطر التحيز عند تطبيقه في مجالات حساسة مثل الخدمات المالية مثل الرهون العقارية وطلبات القروض الأخرى.

جاءت تعليقاتها بعد موافقة الاتحاد الأوروبي على قانون الذكاء الاصطناعي الرسمي الخاص به ، والذي يقسم مؤقتًا تطبيقات الذكاء الاصطناعي إلى فئات مثل المخاطر غير المقبولة والعالية والمحدودة ، والتي تغطي مجموعة واسعة من المعايير لتحديد الفئة التي تقع فيها.

سيكون قانون الذكاء الاصطناعي ، عند تنفيذه ، أول محاولة في العالم لمحاولة تقنين نوع من الفهم والإنفاذ القانوني حول كيفية استخدام الذكاء الاصطناعي تجاريًا وغير تجاري.

تتمثل الخطوة التالية في العملية في أن يتعامل الاتحاد الأوروبي مع الدول الفردية في الاتحاد الأوروبي لتحديد الشكل النهائي الذي سيتخذه القانون – على وجه التحديد لتحديد ما (ومن) الذي يتناسب مع فئاته ، وما الذي لا يتناسب معه. سيكون السؤال في مدى سهولة توافق الدول المختلفة معًا. وأضافت أن الاتحاد الأوروبي يريد الانتهاء من هذه العملية بنهاية هذا العام.

وقالت باشل في بيانها: “من الأهمية بمكان أن يجعل الاتحاد الأوروبي هذا القانون مانعًا للماء قدر الإمكان لحماية المستهلكين”. جميع أنظمة الذكاء الاصطناعي ، بما في ذلك الذكاء الاصطناعي التوليدي ، تحتاج إلى تدقيق عام ، ويجب على السلطات العامة إعادة تأكيد سيطرتها عليها. يجب على المشرعين أن يطلبوا أن تكون مخرجات أي نظام ذكاء اصطناعي إنتاجي آمنة وعادلة وشفافة للمستهلكين “.

يُعرف BEUC بالتناغم في اللحظات الحرجة ، ولإجراء مكالمات مؤثرة تعكس الاتجاه الذي يتخذه المنظمون في النهاية. لقد كان صوتًا مبكرًا ، على سبيل المثال ، ضد Google في تحقيقات مكافحة الاحتكار طويلة المدى ضد عملاق البحث والهاتف المحمول ، حيث كان يتناغم منذ سنوات قبل اتخاذ إجراءات ضد الشركة. ومع ذلك ، فإن هذا المثال يؤكد شيئًا آخر: من المرجح أن يكون النقاش حول الذكاء الاصطناعي وتأثيراته ، والدور الذي قد يلعبه التنظيم في ذلك ، طويلًا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى