يدخل قانون مكافحة التحيز في مدينة نيويورك لخوارزميات التوظيف حيز التنفيذ


بعد شهور من التأخير ، بدأت مدينة نيويورك اليوم في تطبيق قانون يطالب أصحاب العمل باستخدام الخوارزميات لتوظيف أو تعيين أو ترقية الموظفين لتقديم هذه الخوارزميات لتدقيق مستقل – وإعلان النتائج على الملأ. الأول من نوعه في البلاد ، التشريع – القانون المحلي لمدينة نيويورك 144 – يفرض أيضًا على الشركات التي تستخدم هذه الأنواع من الخوارزميات الكشف للموظفين أو المرشحين للوظائف.

كحد أدنى ، يتعين على التقارير التي يجب أن تنشرها الشركات أن تسرد الخوارزميات التي تستخدمها بالإضافة إلى “متوسط ​​الدرجات” التي يحتمل أن يتلقاها المرشحون من مختلف الأعراق والأعراق والجنس من الخوارزميات المذكورة – في شكل نتيجة أو التصنيف أو التوصية. يجب أن تسرد أيضًا “نسب التأثير” للخوارزميات ، والتي يعرّفها القانون على أنها متوسط ​​الدرجات الممنوحة للخوارزمية لجميع الأشخاص في فئة معينة (على سبيل المثال ، المرشحين الذكور السود) مقسومة على متوسط ​​درجات الأشخاص في الفئة الحاصلة على أعلى الدرجات .

ستواجه الشركات التي يتبين أنها غير ممتثلة عقوبات قدرها 375 دولارًا عن الانتهاك الأول ، و 1350 دولارًا للانتهاك الثاني و 1500 دولار للخرق الثالث وأي انتهاكات لاحقة. كل يوم تستخدم الشركة خوارزمية في حالة عدم الامتثال للقانون ، فإنها ستشكل انتهاكًا منفصلاً – وكذلك الفشل في تقديم إفصاح كافٍ.

الأهم من ذلك ، أن نطاق القانون المحلي 144 ، الذي تمت الموافقة عليه من قبل مجلس المدينة وسيتم تنفيذه من قبل إدارة حماية المستهلك والعمال بمدينة نيويورك ، يمتد إلى ما هو أبعد من العاملين في مدينة نيويورك. طالما أن الشخص يؤدي أو يتقدم للحصول على وظيفة في المدينة ، فهو مؤهل للحصول على الحماية بموجب القانون الجديد.

يرى الكثيرون أنه قد فات موعده. أشار خياتي سوندارام ، الرئيس التنفيذي لشركة أبلايد ، بائع تكنولوجيا التوظيف ، إلى أن الذكاء الاصطناعي في التوظيف على وجه الخصوص لديه القدرة على تضخيم التحيزات الحالية – مما يؤدي إلى تفاقم فجوات التوظيف والأجور في العملية.

قال سوندارام لموقع TechCrunch عبر البريد الإلكتروني: “يجب على أصحاب العمل تجنب استخدام الذكاء الاصطناعي في تسجيل المرشحين أو تصنيفهم بشكل مستقل”. “لم نصل بعد إلى مكان يمكن أو يجب الوثوق فيه بالخوارزميات لاتخاذ هذه القرارات بمفردها دون انعكاس التحيزات الموجودة بالفعل في عالم العمل وإدامتها.”

لا يحتاج المرء إلى البحث بعيدًا عن دليل على تسرب التحيز إلى خوارزميات التوظيف. ألغت أمازون محرك تجنيد في عام 2018 بعد أن تبين أنه يوجه التمييز ضد المرشحات. وأظهرت دراسة أكاديمية أُجريت عام 2019 وجود تحيز ضد السود في التوظيف مدعوم بالذكاء الاصطناعي.

في أماكن أخرى ، تم العثور على خوارزميات لتخصيص درجات مختلفة للمرشحين للوظائف بناءً على معايير مثل ما إذا كانوا يرتدون النظارات أو الحجاب. معاقبة المتقدمين لحيازتهم اسم أسود ، أو ذكر كلية نسائية ، أو تقديم سيرتهم الذاتية باستخدام أنواع معينة من الملفات ؛ ويضر بالأشخاص الذين يعانون من إعاقة جسدية تحد من قدرتهم على التفاعل مع لوحة المفاتيح.

يمكن أن تكون التحيزات عميقة. تشير دراسة أجرتها جامعة كامبريدج في أكتوبر 2022 إلى أن شركات الذكاء الاصطناعي التي تدعي أنها تقدم تقييمات موضوعية وجدارة خاطئة ، مما يفترض أن تدابير مكافحة التحيز لإزالة الجنس والعرق غير فعالة لأن الموظف المثالي يتأثر تاريخيًا بجنسه وعرقه.

لكن المخاطر لا تبطئ التبني. ما يقرب من واحدة من كل أربع مؤسسات تستفيد بالفعل من الذكاء الاصطناعي لدعم عمليات التوظيف ، وفقًا لمسح أجرته جمعية إدارة الموارد البشرية في فبراير 2022. النسبة أعلى من ذلك – 42٪ – بين أرباب العمل الذين لديهم 5000 موظف أو أكثر.

إذن ما هي أشكال الخوارزميات التي يستخدمها أصحاب العمل بالضبط؟ أنه يختلف. بعض أكثرها شيوعًا هي أدوات تحليل النص التي تفرز السير الذاتية ورسائل الغلاف بناءً على الكلمات الأساسية. ولكن هناك أيضًا روبوتات محادثة تجري مقابلات عبر الإنترنت لفحص المتقدمين بسمات معينة ، وبرامج المقابلات المصممة للتنبؤ بمهارات المرشح في حل المشكلات ، والقدرات و “الملائمة الثقافية” من أنماط الكلام وتعبيرات الوجه.

إن نطاق خوارزميات التوظيف والتوظيف واسع جدًا ، في الواقع ، لدرجة أن بعض المنظمات لا تعتقد أن القانون المحلي 144 يذهب بعيدًا بما فيه الكفاية.

تؤكد جامعة نيويورك ، فرع نيويورك لاتحاد الحريات المدنية الأمريكي ، أن القانون “يقصر كثيرًا” عن توفير الحماية للمرشحين والعاملين. يشير دانييل شوارتز ، كبير محللي الخصوصية والتكنولوجيا في جامعة نيويورك ، في مذكرة السياسة إلى أن القانون المحلي 144 يمكن ، كما هو مكتوب ، أن يُفهم على أنه يغطي فقط مجموعة فرعية من خوارزميات التوظيف – على سبيل المثال استبعاد الأدوات التي تنسخ النص من المقابلات المرئية والصوتية. (نظرًا لأن أدوات التعرف على الكلام بها مشكلة تحيز معروفة ، فمن الواضح أن هذه مشكلة.)

“… القواعد المقترحة [must be strengthened to] ضمان تغطية واسعة لـ [hiring algorithms]، توسيع متطلبات تدقيق التحيز وتوفير الشفافية والإشعار الهادف للأشخاص المتضررين من أجل ضمان ذلك [algorithms] لا تعمل على التحايل رقميًا على قوانين مدينة نيويورك ضد التمييز “، كتب شوارتز. “يجب ألا يقلق المرشحون والعاملين من أن يتم فحصهم بواسطة خوارزمية تمييزية.”

بالتوازي مع ذلك ، تشرع الصناعة في جهود أولية للتنظيم الذاتي.

شهد ديسمبر 2021 إطلاق Data & Trust Alliance ، الذي يهدف إلى تطوير نظام تقييم وتسجيل للذكاء الاصطناعي للكشف عن التحيز الخوارزمي ومكافحته ، لا سيما التحيز في التوظيف. قامت المجموعة الأولى بإحصاء CVS Health و Deloitte و General Motors و Humana و IBM و Mastercard و Meta و Nike و Walmart بين أعضائها ، وحصلت على تغطية صحفية كبيرة.

مما لا يثير الدهشة ، أن سوندارام يؤيد هذا النهج.

وقال: “بدلاً من أن يأمل المنظمون في اللحاق بالركب والحد من أسوأ تجاوزات الذكاء الاصطناعي للتوظيف ، فإن الأمر يعود إلى أصحاب العمل ليكونوا يقظين ويتوخوا الحذر عند استخدام الذكاء الاصطناعي في عمليات التوظيف”. “الذكاء الاصطناعي يتطور بسرعة أكبر مما يمكن تمريره للقوانين لتنظيم استخدامه. من المرجح أن تكون القوانين التي تم إقرارها – بما في ذلك مدينة نيويورك – معقدة للغاية لهذا السبب. سيؤدي ذلك إلى تعرض الشركات لخطر إساءة تفسير التعقيدات القانونية المختلفة أو التغاضي عنها ، وبالتالي ، سيشهد استمرار تجاهل المرشحين المهمشين لأدوارهم “.

بالطبع ، قد يجادل الكثيرون بأن قيام الشركات بتطوير نظام شهادة لمنتجات الذكاء الاصطناعي التي تستخدمها أو تطورها هو أمر صعب للغاية.

في حين أنه غير كامل في مناطق معينة ، وفقًا للنقاد ، القانون المحلي 144 يفعل تتطلب إجراء عمليات التدقيق من قبل كيانات مستقلة لم تشارك في استخدام أو تطوير أو توزيع الخوارزمية التي يختبرونها والذين ليس لديهم علاقة مع الشركة التي ترسل الخوارزمية للاختبار.

هل سيؤثر القانون المحلي 144 على التغيير ، في نهاية المطاف؟ من السابق لأوانه معرفة ذلك. لكن من المؤكد أن نجاح – أو فشل – تنفيذه سيؤثر على القوانين التي ستأتي في مكان آخر. كما لوحظ في مقال حديث لـ Nerdwallet ، تدرس واشنطن العاصمة قاعدة من شأنها أن تجعل أصحاب العمل مسؤولين عن منع التحيز في خوارزميات صنع القرار الآلي. تم تقديم مشروعي قانون في كاليفورنيا يهدفان إلى تنظيم الذكاء الاصطناعي في التوظيف خلال السنوات القليلة الماضية. وفي أواخر ديسمبر ، تم تقديم مشروع قانون في نيوجيرسي من شأنه أن ينظم استخدام الذكاء الاصطناعي في قرارات التوظيف لتقليل التمييز.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى