تظل Google Bard وروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي تحت مراقبة الخصوصية في الاتحاد الأوروبي

تظل Google Bard وروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي تحت مراقبة الخصوصية في الاتحاد الأوروبي


كما ذكرنا سابقًا ، تم إطلاق chatbot Bard الخاص بالذكاء الاصطناعي من Google أخيرًا في الاتحاد الأوروبي. نحن نتفهم أنها فعلت ذلك بعد إجراء بعض التغييرات لتعزيز الشفافية وضوابط المستخدم – لكن منظمي الخصوصية في الكتلة يظلون متيقظين ولا يزال يتعين اتخاذ قرارات كبيرة بشأن كيفية إنفاذ قانون حماية البيانات في الكتلة على الذكاء الاصطناعي التوليدي.

أخبرتنا لجنة حماية البيانات الأيرلندية (DPC) ، الجهة المنظمة الرائدة لحماية البيانات في Google في المنطقة ، أنها ستستمر في التعامل مع عملاق التكنولوجيا في Bard بعد الإطلاق. قالت DPC أيضًا إن Google وافقت على إجراء مراجعة وتقديم تقرير إلى هيئة الرقابة في غضون ثلاثة أشهر (حوالي منتصف أكتوبر). لذلك ستشهد الأشهر المقبلة مزيدًا من الاهتمام التنظيمي على روبوت الدردشة بالذكاء الاصطناعي – إن لم يكن (حتى الآن) تحقيقًا رسميًا.

في الوقت نفسه ، لدى مجلس حماية البيانات الأوروبي (EDPB) فريق عمل يبحث في امتثال روبوتات الدردشة الذكية للوائح حماية البيانات العامة للاتحاد الأوروبي (GDPR). ركز فريق العمل في البداية على ChatGPT الخاص بـ OpenAI ، لكننا نفهم أنه سيتم دمج مسائل Bard في العمل الذي يهدف إلى تنسيق الإجراءات التي قد تتخذها هيئات حماية البيانات المختلفة (DPA) لمحاولة تنسيق الإنفاذ.

“أجرت Google عددًا من التغييرات مسبقًا [Bard’s] إطلاق ، ولا سيما زيادة الشفافية والتغييرات في الضوابط للمستخدمين. سنواصل مشاركتنا مع Google فيما يتعلق ببارد بعد الإطلاق ووافقت Google على إجراء مراجعة وتقديم تقرير إلى DPC بعد ثلاثة أشهر من بدء تشغيل Bard في الاتحاد الأوروبي “، قال نائب مفوض DPC جراهام دويل.

وأضاف: “بالإضافة إلى ذلك ، أنشأ مجلس حماية البيانات الأوروبي فريق عمل في وقت سابق من هذا العام ، ونحن أعضاء فيه ، والذي سينظر في مجموعة متنوعة من القضايا في هذا المجال.

تم تأجيل إطلاق الاتحاد الأوروبي لتطبيق ChatGPT ، منافس Google ، الشهر الماضي بعد أن سعت الهيئة التنظيمية الأيرلندية بشكل عاجل إلى الحصول على معلومات فشلت Google في تزويدها بها. وشمل ذلك عدم تزويد DPC بمشاهدة تقييم تأثير حماية البيانات (DPIA) – وهي وثيقة امتثال مهمة لتحديد المخاطر المحتملة على الحقوق الأساسية وتقييم تدابير التخفيف. لذا ، فإن الفشل في رفع مستوى حماية البيانات الشخصية يعد علامة حمراء تنظيمية كبيرة جدًا.

أكد دويل لـ TechCrunch أن DPC قد شهدت الآن DPIA لـ Bard.

وقال إن هذه ستكون إحدى الوثائق التي قال إنها ستشكل جزءًا من المراجعة التي تستغرق ثلاثة أشهر ، جنبًا إلى جنب مع الوثائق الأخرى “ذات الصلة” ، مضيفًا: “وثائق حماية البيانات الشخصية هي وثائق حية وقابلة للتغيير”.

في منشور مدونة رسمي ، لم تقدم Google على الفور أي تفاصيل حول الخطوات المحددة التي تم اتخاذها لتقليص المخاطر التنظيمية في الاتحاد الأوروبي – لكنها ادعت أنها “شاركت بشكل استباقي مع الخبراء وصانعي السياسات ومنظمي الخصوصية بشأن هذا التوسع”.

لقد تواصلنا مع عملاق التكنولوجيا بأسئلة حول الشفافية وتعديلات التحكم في المستخدم التي تم إجراؤها قبل إطلاق Bard في الاتحاد الأوروبي ، وسلطت متحدثة باسمها الضوء على عدد من المجالات التي اهتمت بها والتي اقترحت أنها ستضمن طرحها للتكنولوجيا بمسؤولية – بما في ذلك قصر الوصول إلى Bard على المستخدمين الذين تزيد أعمارهم عن 18 عامًا والذين لديهم حساب Google.

تغيير كبير واحد هو أنها وضعت علامة على جديد Bard Privacy Hub التي اقترحتها تجعل من السهل على المستخدمين مراجعة التفسيرات المتاحة لعناصر التحكم في الخصوصية.

وفقًا للمعلومات الواردة في هذا المركز ، تتضمن الأسس القانونية التي تطالب بها Google لشركة Bard تنفيذ العقد والمصالح المشروعة. على الرغم من أنه يبدو أنه يميل بشدة إلى الأساس الأخير للجزء الأكبر من المعالجة المرتبطة. (يشير أيضًا إلى أنه أثناء تطوير المنتج ، قد يطلب الموافقة على معالجة البيانات لأغراض محددة.)

وفقًا لـ Hub أيضًا ، يبدو أن خيار حذف البيانات الوحيد المسمى بوضوح Google الذي تقدمه للمستخدمين هو القدرة على حذف نشاط استخدام Bard الخاص بهم – لا توجد طريقة واضحة للمستخدمين لمطالبة Google بحذف البيانات الشخصية المستخدمة لتدريب برنامج الدردشة الآلي.

على الرغم من أنه يقدم نموذج ويب يتيح للأشخاص الإبلاغ عن مشكلة أو مشكلة قانونية – حيث يحدد أنه يمكن للمستخدمين طلب تصحيح المعلومات الخاطئة التي تم إنشاؤها عنهم أو الاعتراض على معالجة بياناتهم (هذا الأخير شرط إذا كنت الاعتماد على المصالح المشروعة للمعالجة بموجب قانون الاتحاد الأوروبي).

نموذج ويب آخر تقدمه Google يتيح للمستخدمين طلب إزالة المحتوى بموجب سياساته الخاصة أو القوانين المعمول بها (والتي تشير ، بشكل واضح ، إلى انتهاكات حقوق الطبع والنشر ، لكن Google تقترح أيضًا على المستخدمين الاستفادة من هذا النموذج إذا كانوا يريدون الاعتراض على معالجته لبياناتهم أو طلب تصحيح – لذلك هذا ، على ما يبدو ، أقرب ما يكون إلى خيار “حذف بياناتي من نموذج AI الخاص بك”).

وأشارت المتحدثة باسم Google ، تعديلات أخرى ، إلى أنها تتعلق بضوابط المستخدم على الاحتفاظ ببيانات نشاط Bard الخاصة بهم – أو في الواقع القدرة على عدم تسجيل نشاطهم.

يمكن للمستخدمين أيضًا اختيار المدة التي يخزن فيها Bard بياناتهم مع حساب Google الخاص بهم – افتراضيًا ، تقوم Google بتخزين نشاط Bard الخاص بهم في حساب Google الخاص بهم لمدة تصل إلى 18 شهرًا ولكن يمكن للمستخدمين تغيير ذلك إلى ثلاثة أو 36 شهرًا إذا فضلوا ذلك. وقالت المتحدثة إن بإمكانهم أيضًا إيقاف هذا تمامًا وبسهولة حذف نشاطهم Bard على g.co/bard/myactivity.

للوهلة الأولى ، يبدو نهج Google في مجال الشفافية وتحكم المستخدم مع Bard مشابهًا إلى حد كبير للتغييرات التي أدخلتها OpenAI على ChatGPT بعد التدقيق التنظيمي من قبل DPA الإيطالية.

ال الضمان استحوذت على مقل العيون في وقت سابق من هذا العام عن طريق طلب OpenAI لتعليق الخدمة محليًا – في نفس الوقت وضع علامة على قائمة غسيل لمخاوف حماية البيانات.

تمكن ChatGPT من استئناف الخدمة في إيطاليا بعد بضعة أسابيع من خلال العمل على قائمة مهام DPA الأولية. وشمل ذلك إضافة إفصاحات الخصوصية حول معالجة البيانات المستخدمة لتطوير وتدريب ChatGPT ؛ تزويد المستخدمين بالقدرة على إلغاء الاشتراك في معالجة البيانات لتدريب أنظمة الذكاء الاصطناعي الخاصة بهم ؛ وتقديم طريقة للأوروبيين للمطالبة بحذف بياناتهم ، بما في ذلك ما إذا كان غير قادر على تصحيح الأخطاء الناتجة عن الأشخاص بواسطة برنامج الدردشة الآلي.

كما طُلب من شركة OpenAI إضافة بوابة عمرية على المدى القريب والعمل على إضافة تقنية أكثر قوة لضمان العمر لتقليص مخاوف سلامة الأطفال.

بالإضافة إلى ذلك ، أمرت إيطاليا شركة OpenAI بإزالة الإشارات إلى تنفيذ العقد للأساس القانوني المطالب به للمعالجة – قائلة إنه لا يمكن الاعتماد إلا على الموافقة أو المصالح المشروعة. (في هذه الحالة ، عندما استأنفت ChatGPT الخدمة في إيطاليا ، بدا أن OpenAI تعتمد على LI كأساس قانوني.) وعلى هذه الجبهة ، نحن نفهم أن الأساس القانوني هو أحد المشكلات التي ينظر فيها فريق عمل EDPB.

بالإضافة إلى إجبار شركة OpenAI على إجراء سلسلة من التغييرات الفورية استجابةً لمخاوفها ، فتحت إدارة الشؤون السياسية الإيطالية تحقيقها الخاص في ChatGPT. متحدث باسم الضمان أكد لنا اليوم أن هذا التحقيق لا يزال مستمرا.

قالت وكالات حماية البيانات بالاتحاد الأوروبي الأخرى أيضًا إنها تحقق في ChatGPT – وهو مفتوح للاستفسار التنظيمي من جميع أنحاء الكتلة لأنه ، على عكس Google ، لم يتم تأسيسه بشكل رئيسي في أي دولة عضو.

هذا يعني أنه من المحتمل أن يكون هناك خطر تنظيمي أكبر وعدم يقين بالنسبة لبرامج الدردشة الخاصة بـ OpenAI مقابل Google (والتي ، كما نقول ، ليست قيد التحقيق الرسمي من قبل DPC حتى الآن) – إنها بالتأكيد صورة امتثال أكثر تعقيدًا حيث يتعين على الشركة التعامل مع الواردة من جهات تنظيمية متعددة ، بدلاً من مجرد DPA يؤدي.

قد تساعد فرقة عمل EDPB في تقليص بعض عدم اليقين التنظيمي في هذا المجال إذا كان بإمكان DPAs في الاتحاد الأوروبي الاتفاق على مواقف فرض مشتركة على روبوتات الدردشة AI.

ومع ذلك ، بدأت بعض السلطات بالفعل في وضع كشك استراتيجي خاص بها على تقنيات الذكاء الاصطناعي التوليدية. نشرت CNIL الفرنسية ، على سبيل المثال ، خطة عمل للذكاء الاصطناعي في وقت سابق من هذا العام نصت فيها على أنها ستولي اهتمامًا خاصًا لحماية البيانات المتاحة للجمهور على الويب من الخدش – وهي ممارسة يستخدمها كل من OpenAI و Google لتطوير نماذج لغة كبيرة مثل ChatGPT و Bard.

لذلك من غير المحتمل أن تؤدي فرقة العمل إلى إجماع كامل بين DPAs حول كيفية التعامل مع روبوتات المحادثة ويبدو أن بعض الاختلافات في النهج لا مفر منها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى