يحذر التقرير من أن نهج المملكة المتحدة تجاه سلامة الذكاء الاصطناعي يفتقر إلى المصداقية

يحذر التقرير من أن نهج المملكة المتحدة تجاه سلامة الذكاء الاصطناعي يفتقر إلى المصداقية


تحاول حكومة المملكة المتحدة ترسيخ صورة لنفسها على أنها محرك دولي في مجال سلامة الذكاء الاصطناعي الناشئ في الأسابيع الأخيرة – حيث أسقطت إعلانًا مبهرجًا عن قمة قادمة حول هذا الموضوع الشهر الماضي ، إلى جانب تعهد بـ إنفاق 100 مليون جنيه إسترليني على فريق عمل نموذجي أساسي يقوم بإجراء “أحدث” أبحاث السلامة في مجال الذكاء الاصطناعي ، كما توضحه.

ومع ذلك ، فإن الحكومة نفسها ، بقيادة رئيس الوزراء البريطاني وريشي سوناك ، رئيس الوزراء البريطاني ، تجنبت الحاجة إلى تمرير تشريع محلي جديد لتنظيم تطبيقات الذكاء الاصطناعي – وهو موقف ورقة سياسات خاصة بها حول موضوع العلامات التجارية “المؤيدة للابتكار”.

كما أنه في خضم تمرير إصلاح تحريري لإطار حماية البيانات الوطني الذي يخاطر بالعمل ضد سلامة الذكاء الاصطناعي.

هذا الأخير هو أحد الاستنتاجات العديدة التي توصل إليها معهد Ada Lovelace الذي يركز على الأبحاث المستقلة ، وهو جزء من الثقة الخيرية لمؤسسة Nuffield Foundation ، في تقرير جديد يفحص نهج المملكة المتحدة في تنظيم الذكاء الاصطناعي الذي يجعله يبدو دبلوماسيًا ولكنه ، في بعض الأحيان ، محرج للغاية قراءة للوزراء.

يحتوي التقرير على 18 توصية كاملة لرفع مستوى مصداقية / سياسة الحكومة في هذا المجال – أي إذا كانت المملكة المتحدة تريد أن تؤخذ على محمل الجد في هذا الموضوع.

يدافع المعهد عن تعريف “باهظ التكلفة” لسلامة الذكاء الاصطناعي – “يعكس مجموعة متنوعة من الأضرار التي تنشأ عندما تصبح أنظمة الذكاء الاصطناعي أكثر قدرة وانخراطًا في المجتمع”. لذا فإن التقرير يهتم بكيفية تنظيم “أنظمة الذكاء الاصطناعي يمكن أن تسبب اليوم”. أطلق عليها أضرار الذكاء الاصطناعي في العالم الحقيقي. (ليس مع المخاطر المستقبلية النظرية المستوحاة من الخيال العلمي والتي تم تضخيمها من قبل بعض الشخصيات البارزة في صناعة التكنولوجيا مؤخرًا ، على ما يبدو في محاولة لاختراق انتباه صانعي السياسات).

في الوقت الحالي ، من العدل أن نقول إن نهج حكومة سوناك لتنظيم سلامة الذكاء الاصطناعي (في العالم الحقيقي) كان متناقضًا ؛ ثقيلة على العلاقات العامة المبهرجة التي تقودها الصناعة تدعي أنها تريد الدفاع عن السلامة ولكن الضوء على مقترحات السياسة لوضع قواعد موضوعية للحماية من مجموعة متنوعة من المخاطر والأضرار التي نعرف أنها يمكن أن تتدفق من تطبيقات الأتمتة غير الحكيمة.

إليكم معهد Ada Lovelace الذي ألقى قنبلة الحقيقة الأساسية:

وضعت حكومة المملكة المتحدة طموحها لجعل المملكة المتحدة “قوة عظمى للذكاء الاصطناعي” ، والاستفادة من تطوير وانتشار تقنيات الذكاء الاصطناعي لفائدة المجتمع والاقتصاد في المملكة المتحدة ، واستضافة قمة عالمية في خريف عام 2023. ولن يتحقق هذا الطموح إلا بفاعلية التنظيم المحلي ، والذي سيوفر منصة لاقتصاد الذكاء الاصطناعي المستقبلي في المملكة المتحدة.

تيتمضي قائمة التوصيات الخاصة بالتقرير لتوضيح أن المعهد يرى مجالًا كبيرًا لتحسين نهج المملكة المتحدة الحالي للذكاء الاصطناعي.

في وقت سابق من هذا العام ، نشرت الحكومة نهجها المفضل لتنظيم الذكاء الاصطناعي محليًا – قائلة إنها لا ترى الحاجة إلى تشريعات جديدة أو هيئات رقابة في هذه المرحلة. وبدلاً من ذلك ، قدم الكتاب الأبيض مجموعة من المبادئ المرنة اقترحت الحكومة على المنظمين الحاليين والقطاع (و / أو الشامل) “تفسير الذكاء الاصطناعي وتطبيقه في نطاق صلاحياتهم”. فقط بدون أي صلاحيات قانونية جديدة أو تمويل إضافي للإشراف أيضًا على الاستخدامات الجديدة للذكاء الاصطناعي.

المبادئ الخمسة المنصوص عليها في الكتاب الأبيض هي: السلامة والأمن والمتانة ؛ الشفافية الملائمة وقابلية التفسير ؛ الإنصاف. المساءلة والحوكمة ؛ التنازع والتعويض. كل هذا يبدو جيدًا على الورق – لكن من الواضح أن الورق وحده لن يقطعه عندما يتعلق الأمر بتنظيم أمان الذكاء الاصطناعي.

خطة المملكة المتحدة للسماح للمنظمين الحاليين بمعرفة ما يجب القيام به بشأن الذكاء الاصطناعي من خلال بعض المبادئ الشاملة التي يجب استهدافها وعدم وجود موارد جديدة تتناقض مع تلك الخاصة بالاتحاد الأوروبي حيث ينشغل المشرعون بالتوصل إلى اتفاق حول إطار عمل قائم على المخاطر وهو ما تفعله الكتلة. تنفيذي مقترح في عام 2021.

إن نهج الميزانية الضئيل الذي تتبعه المملكة المتحدة المتمثل في تحميل المنظمين الحاليين والمرهقين بمسؤوليات جديدة لمراقبة تطورات الذكاء الاصطناعي في رقعة عملهم دون أي صلاحيات لفرض النتائج على الجهات الفاعلة السيئة لا يبدو موثوقًا للغاية فيما يتعلق بسلامة الذكاء الاصطناعي.

لا تبدو حتى إستراتيجية متماسكة إذا كنت تسعى لكونك مؤيدًا للابتكار أيضًا – لأنها ستتطلب من مطوري الذكاء الاصطناعي التفكير في مجموعة كاملة من التشريعات الخاصة بالقطاع والشاملة ، والتي تمت صياغتها قبل فترة طويلة من طفرة الذكاء الاصطناعي الأخيرة. قد يجد المطورون أنفسهم أيضًا خاضعين للرقابة من قبل عدد من الهيئات التنظيمية المختلفة (على الرغم من ضعف انتباههم ، نظرًا لنقص الموارد والقوة القانونية لفرض المبادئ المذكورة أعلاه). لذا ، في الحقيقة ، تبدو كوصفة لـ عدم اليقين بشأن القواعد الحالية التي قد تنطبق على تطبيقات الذكاء الاصطناعي. (وعلى الأرجح ، خليط من التفسيرات التنظيمية ، اعتمادًا على القطاع ، وحالة الاستخدام والهيئات الرقابية المعنية وما إلى ذلك. Ergo والارتباك والتكلفة ، وليس الوضوح).

حتى إذا قام المنظمون الحاليون في المملكة المتحدة بإصدار إرشادات حول كيفية تعاملهم مع الذكاء الاصطناعي – كما يفعل البعض بالفعل أو يعملون عليه – فلا يزال هناك الكثير من الثغرات ، كما يشير تقرير معهد Ada Lovelace أيضًا – نظرًا لأن فجوات التغطية هي سمة من سمات المشهد التنظيمي الحالي في المملكة المتحدة. لذا فإن الاقتراح الخاص بتوسيع هذا النهج يعني ضمناً أن التناقض التنظيمي قد تم حصره بل وتضخيمه مع زيادة / انفجار استخدام الذكاء الاصطناعي في جميع القطاعات.

ها هو المعهد مرة أخرى:

قطاعات كبيرة من اقتصاد المملكة المتحدة غير منظمة حاليًا أو منظمة جزئيًا فقط. ليس من الواضح من سيكون مسؤولاً عن تنفيذ مبادئ الذكاء الاصطناعي في هذه السياقات ، والتي تشمل: الممارسات الحساسة مثل التوظيف والتوظيف ، والتي لا تخضع للمراقبة الشاملة من قبل المنظمين ، حتى داخل القطاعات المنظمة ؛ خدمات القطاع العام مثل التعليم والشرطة ، والتي يتم مراقبتها وإنفاذها من قبل شبكة غير متكافئة من المنظمين ؛ الأنشطة التي تقوم بها إدارات الحكومة المركزية ، والتي لا يتم تنظيمها في كثير من الأحيان بشكل مباشر ، مثل إدارة الفوائد أو الكشف عن الاحتيال الضريبي ؛ الأجزاء غير الخاضعة للتنظيم من القطاع الخاص ، مثل البيع بالتجزئة.

يتم نشر واستخدام الذكاء الاصطناعي في كل قطاع ، لكن الشبكة القانونية والتنظيمية المنتشرة في المملكة المتحدة للذكاء الاصطناعي تعاني حاليًا من فجوات كبيرة. هناك حاجة إلى حقوق أوضح ومؤسسات جديدة لضمان أن الضمانات تمتد عبر الاقتصاد ، “كما يقترح.

التناقض المتزايد الآخر لموقف الحكومة المزعوم بشأن “قيادة الذكاء الاصطناعي” هو أن محاولتها أن تصبح الدولة مركزًا عالميًا للسلامة في مجال الذكاء الاصطناعي يتم تقويضها بشكل مباشر من خلال الجهود المبذولة في التدريب لتقليل الحماية المحلية لبيانات الأشخاص – مثل تقليل الحماية عندما يخضعون لقرارات آلية ذات تأثير كبير و / أو قانوني – من خلال قانون حماية البيانات غير التنظيمي وقانون المعلومات الرقمية (رقم 2).

في حين تجنبت الحكومة حتى الآن الاقتراحات الأكثر إلحاحًا لمؤيدي خروج بريطانيا من الاتحاد الأوروبي لتمزيق كتاب قواعد حماية البيانات المشتق من الاتحاد الأوروبي – مثل حذف المادة 22 بالكامل (التي تتعامل مع الحماية للقرارات الآلية) من اللائحة العامة لحماية البيانات في المملكة المتحدة – ومع ذلك ، تمضي قدمًا في خطة لتقليل مستوى الحماية التي يتمتع بها المواطنون بموجب قانون حماية البيانات الحالي بطرق مختلفة ، على الرغم من طموحها الجديد لجعل المملكة المتحدة مركزًا عالميًا للسلامة في مجال الذكاء الاصطناعي.

“القانون العام لحماية البيانات في المملكة المتحدة – الإطار القانوني لحماية البيانات المعمول به حاليًا في المملكة المتحدة – يوفر الحماية الضرورية لحماية الأفراد والمجتمعات من الأضرار المحتملة للذكاء الاصطناعي. قانون حماية البيانات والمعلومات الرقمية (رقم 2) ، الذي تم طرحه بصيغته الحالية في مارس 2023 ، يعدل بشكل كبير هذه الحماية ، “يحذر المعهد ، مشيرًا على سبيل المثال إلى مشروع القانون الذي يزيل الحظر المفروض على العديد من أنواع القرارات الآلية – وبدلاً من ذلك تطلب من مراقبي البيانات أن يكون لديهم “ضمانات قائمة ، مثل التدابير لتمكين الفرد من الطعن في القرار” – وهو ما يجادل بأنه مستوى أدنى من الحماية في الممارسة العملية.

ويستطرد قائلاً: “إن اعتماد إطار العمل المقترح من الحكومة على التشريعات والهيئات التنظيمية الحالية يجعل الأمر أكثر أهمية من أن التنظيم الأساسي مثل حماية البيانات يحكم الذكاء الاصطناعي بشكل مناسب”. “تشير المشورة القانونية التي أصدرها معهد Ada Lovelace … إلى أن إجراءات حماية المعالجة الآلية الحالية قد لا توفر في الممارسة العملية حماية كافية للأشخاص الذين يتفاعلون مع الخدمات اليومية ، مثل التقدم بطلب للحصول على قرض.”

ويضيف التقرير: “إذا أخذنا بعين الاعتبار بشكل جماعي ، فإن تغييرات مشروع القانون تخاطر بتقويض المقترحات التنظيمية للحكومة بشأن الذكاء الاصطناعي”.

وبالتالي ، فإن التوصية الأولى للمعهد هي أن تقوم الحكومة بـ rعناصر ethink لمشروع قانون إصلاح حماية البيانات التي “من المحتمل أن تقوض التطوير الآمن للذكاء الاصطناعي ونشره واستخدامه ، مثل التغييرات في إطار المساءلة”. كما توصي الحكومة بتوسيع نطاق مراجعتها للنظر في الحقوق والحماية القائمة في قانون المملكة المتحدة – بهدف سد أي ثغرات تشريعية أخرى وإدخال حقوق وحماية جديدة للناس.تتأثر بالقرارات المستندة إلى الذكاء الاصطناعي عند الضرورة.

وتشمل التوصيات الأخرى الواردة في التقرير تقديم واجب قانوني للجهات التنظيمية لمراعاة المبادئ المذكورة أعلاه ، بما في ذلك “التزامات الشفافية والمساءلة الصارمة” وتزويدهم بالمزيد من التمويل / الموارد لمعالجة الأضرار المتعلقة بالذكاء الاصطناعي ؛ استكشاف إدخال مجموعة مشتركة من السلطات للمنظمين ، بما في ذلك مسبقا، القدرة التنظيمية التي تركز على المطور ؛ وأن على الحكومة أن تنظر في ما إذا كان ينبغي إنشاء أمين مظالم للذكاء الاصطناعي لدعم الأشخاص المتأثرين بشدة بالذكاء الاصطناعي.

كما يوصي المعهد الحكومة بتوضيح القانون المتعلق بالذكاء الاصطناعي والمسؤولية – وهو مجال آخر يتقدم فيه الاتحاد الأوروبي بالفعل.

فيما يتعلق بسلامة النموذج التأسيسي – وهي منطقة حظيت باهتمام واهتمام خاصين من حكومة المملكة المتحدة مؤخرًا ، وذلك بفضل الطنانة المنتشرة حول أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT من OpenAI – يعتقد المعهد أيضًا أن الحكومة بحاجة إلى المضي قدمًا ، حيث يوصي بمطورين مقيمين في المملكة المتحدة يجب إعطاء النماذج التأسيسية متطلبات الإبلاغ الإلزامية لتسهيل بقاء المنظمين في صدارة التقنيات سريعة الحركة للغاية.

حتى أنه يقترح مطوري النماذج التأسيسية الرائدة ، مثل OpenAI و Google DeepMind و Anthropic ، يجب أن يُطلب منهم تزويد الحكومة بإخطار عندما يبدأون (أو أي معالجين فرعيين يعملون معهم) تدريبات واسعة النطاق لنماذج جديدة.

ويقترح التقرير أن “هذا من شأنه أن يوفر للحكومة إنذارًا مبكرًا بشأن التطورات في قدرات الذكاء الاصطناعي ، مما يسمح لواضعي السياسات والمنظمين بالاستعداد لتأثير هذه التطورات ، بدلاً من عدم إدراكهم” ، مضيفًا أن متطلبات إعداد التقارير يجب أن تتضمن أيضًا معلومات مثل الوصول إلى البيانات المستخدمة لتدريب النماذج ؛ نتائج عمليات التدقيق الداخلية ؛ وبيانات سلسلة التوريد.

اقتراح آخر هو أن تستثمر الحكومة في مشاريع تجريبية صغيرة لتعزيز فهمها لاتجاهات البحث والتطوير في مجال الذكاء الاصطناعي.

وتعليقًا على نتائج التقرير في بيان ، قال مايكل بيرتويستل ، المدير المساعد في معهد Ada Lovelace:

تدرك الحكومة بحق أن المملكة المتحدة لديها فرصة فريدة لتكون رائدة على مستوى العالم في تنظيم الذكاء الاصطناعي ، وينبغي الإشادة برئيس الوزراء لقيادته العالمية بشأن هذه القضية. ومع ذلك ، فإن مصداقية المملكة المتحدة فيما يتعلق بتنظيم الذكاء الاصطناعي تعتمد على قدرة الحكومة على تقديم نظام تنظيمي رائد عالميًا في الداخل. نرحب بالجهود المبذولة من أجل التنسيق الدولي لكنها غير كافية. يجب على الحكومة تعزيز مقترحاتها المحلية للتنظيم إذا كانت تريد أن تؤخذ على محمل الجد بشأن الذكاء الاصطناعي وتحقق طموحاتها العالمية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى