وجد باحثو جامعة ستانفورد أن الماستودون لديه مشكلة كبيرة تتعلق بإساءة معاملة الأطفال


Mastodon ، الشبكة اللامركزية التي يُنظر إليها على أنها بديل عملي لتويتر ، مليئة بمواد الاعتداء الجنسي على الأطفال (CSAM) ، وفقًا لدراسة جديدة من مرصد الإنترنت في ستانفورد (عبر واشنطن بوست). في غضون يومين فقط ، وجد الباحثون 112 حالة معروفة من CSAM عبر 325000 مشاركة على المنصة – مع ظهور الحالة الأولى بعد خمس دقائق فقط من البحث.

لإجراء بحثه ، قام مرصد الإنترنت بفحص أكثر 25 حالة شائعة من Mastodon لـ CSAM. استخدم الباحثون أيضًا واجهة برمجة تطبيقات البحث الآمن من Google لتحديد الصور الصريحة ، جنبًا إلى جنب مع PhotoDNA ، وهي أداة تساعد في العثور على CSAM التي تم الإبلاغ عنها. خلال البحث ، وجد الفريق 554 قطعة من المحتوى تطابق علامات التصنيف أو الكلمات الرئيسية التي تستخدمها مجموعات الاعتداء الجنسي على الأطفال عبر الإنترنت ، والتي تم تحديدها جميعًا على أنها صريحة في “أعلى ثقة” بواسطة البحث الآمن من Google.

النشر المفتوح لـ CSAM “منتشر بشكل مزعج”

كان هناك أيضًا 713 استخدامًا لأهم 20 علامة تصنيف متعلقة بـ CSAM عبر Fediverse في المنشورات التي تحتوي على وسائط ، بالإضافة إلى 1217 مشاركة نصية فقط تشير إلى “تداول CSAM خارج الموقع أو الاستمالة للقصر”. تشير الدراسة إلى أن النشر المفتوح لـ CSAM “منتشر بشكل مزعج”.

أشار أحد الأمثلة إلى انقطاع خادم mastodon.xyz الممتد الذي لاحظناه في وقت سابق من هذا الشهر ، والذي كان حادثة حدثت بسبب إرسال CSAM إلى Mastodon. في منشور حول الحادث ، ذكر المشرف الوحيد على الخادم أنه تم تنبيههم إلى المحتوى الذي يحتوي على CSAM ، لكنه أشار إلى أن الاعتدال يتم في أوقات فراغه ويمكن أن يستغرق الأمر ما يصل إلى بضعة أيام حتى تحدث – هذه ليست عملية عملاقة مثل Meta مع فريق عالمي من المقاولين ، إنها مجرد شخص واحد.

بينما قالوا إنهم اتخذوا إجراءً ضد المحتوى المعني ، قام مضيف النطاق mastodon.xyz بتعليقه على أي حال ، مما جعل الخادم غير متاح للمستخدمين حتى يتمكنوا من الوصول إلى شخص ما لاستعادة قائمته. بعد حل المشكلة ، قال مسؤول mastodon.xyz أن أمين السجل أضاف النطاق إلى قائمة “إيجابية كاذبة” لمنع عمليات الإزالة المستقبلية. ومع ذلك ، كما يشير الباحثون ، “ما تسبب في هذا الإجراء لم يكن نتيجة إيجابية خاطئة”.

قال ديفيد ثيل ، أحد الباحثين في التقرير ، في بيان لـ واشنطن بوست. “الكثير منها مجرد نتيجة لما يبدو أنه نقص في الأدوات التي تستخدمها منصات التواصل الاجتماعي المركزية لمعالجة مخاوف سلامة الأطفال “.

نظرًا لتزايد شعبية الشبكات اللامركزية مثل Mastodon ، فلديك مخاوف بشأن السلامة. لا تستخدم الشبكات اللامركزية نفس النهج في الاعتدال مثل المواقع الرئيسية مثل Facebook و Instagram و Reddit. بدلاً من ذلك ، يُمنح كل مثيل لامركزي التحكم في الاعتدال ، مما قد يؤدي إلى عدم اتساق في جميع أنحاء الفيدرالية. لهذا السبب يقترح الباحثون أن شبكات مثل Mastodon تستخدم أدوات أكثر قوة للمشرفين ، جنبًا إلى جنب مع تكامل PhotoDNA وتقارير CyberTipline.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى