يريد كريستوفر نولان أن يكون أوبنهايمر تحذيرًا لوادي السيليكون


في الوقت الذي علم فيه جي.روبرت أوبنهايمر أن هيروشيما قد تعرضت للقصف (جنبًا إلى جنب مع أي شخص آخر في العالم) بدأ يشعر بالأسف العميق بشأن دوره في صنع تلك القنبلة. في وقت ما عندما التقى الرئيس ترومان أوبنهايمر بكى وأعرب عن أسفه. وصفه ترومان بأنه طفل يبكي وقال إنه لم يرغب في رؤيته مرة أخرى. ويأمل كريستوفر نولان ذلك عندما يكون جمهور وادي السيليكون من فيلمه أوبنهايمر (في 21 يونيو) انظر تفسيره لكل تلك الأحداث وسوف يرون شيئًا خاصًا بهم هناك أيضًا.

بعد فحص أوبنهايمر في فندق ويتبي أمس ، انضم كريستوفر نولان إلى لجنة من العلماء وكاي بيرد أحد مؤلفي الكتاب الذي يستند إليه أوبنهايمر للحديث عن الفيلم ، بروميثيوس الأمريكية. كان الجمهور ممتلئًا في الغالب بالعلماء ، الذين ضحكوا على النكات حول غرور علماء الفيزياء في الفيلم ، ولكن كان هناك عدد قليل من المراسلين ، بمن فيهم أنا ، هناك أيضًا.

استمعنا إلى جميع المناقشات القصيرة جدًا حول نجاح الردع النووي وتحدث الدكتور توم ماسون ، المدير الحالي لـ Los Alamos ، عن عدد موظفي المختبر الحاليين الذين شاركوا في الفيلم لأنه تم تصوير الكثير منه في مكان قريب. ولكن في نهاية المحادثة ، كان الوسيط ، تشاك تود من التقي بالصحافةسأل نولان عما يأمل أن يتعلمه وادي السيليكون من الفيلم. قال لتود: “أعتقد أن ما أريدهم أن يأخذوه هو مفهوم المساءلة”.

“تطبيق على الذكاء الاصطناعي؟ هذا احتمال مرعب. مرعب.”

ثم أوضح ، “عندما تبتكر من خلال التكنولوجيا ، عليك التأكد من وجود مساءلة.” كان يشير إلى مجموعة واسعة من الابتكارات التكنولوجية التي تبناها وادي السيليكون ، بينما رفضت تلك الشركات نفسها الاعتراف بالضرر الذي أحدثته مرارًا وتكرارًا. “صعود الشركات على مدار الخمسة عشر عامًا الماضية تتجول حول كلمات مثل” الخوارزمية “، ولا تعرف ما تعنيه بأي نوع من المعنى الرياضي ذي المعنى. إنهم فقط لا يريدون تحمل مسؤولية ما تفعله هذه الخوارزمية “.

وتابع: “وتقدمت إلى الذكاء الاصطناعي؟ هذا احتمال مرعب. مرعب. ليس أقلها لأن أنظمة الذكاء الاصطناعي تدخل في البنية التحتية الدفاعيةو في النهاية ، سيتم اتهامهم بالأسلحة النووية وإذا سمحنا للناس أن يقولوا أن هذا كيان منفصل عن الشخص الذي يستخدم الذكاء الاصطناعي وبرمجته ووضعه في الخدمة ، فإننا محكوم علينا بالفشل. يجب أن يكون حول المساءلة. علينا أن نحمل الأشخاص المسؤولية عما يفعلونه بالأدوات المتوفرة لديهم “.

بينما لم يشر نولان إلى أي شركة معينة ، فليس من الصعب معرفة ما يتحدث عنه. تعتمد شركات مثل Google و Meta وحتى Netflix بشكل كبير على الخوارزميات لاكتساب الجماهير والحفاظ عليها وغالبًا ما تكون هناك نتائج غير متوقعة وشنيعة لهذا الاعتماد. ربما تكون مساهمة ميتا في الإبادة الجماعية في ميانمار هي الأكثر شهرة وفظاعة حقًا.

“على الأقل بمثابة حكاية تحذيرية”.

في حين أن جولة الاعتذار مضمونة فعليًا الآن بعد أيام من قيام خوارزمية الشركة بشيء فظيع ، تظل الخوارزميات قائمة. حتى أن المواضيع أطلقت للتو بامتداد حصريا تغذية حسابية. من حين لآخر ، قد تمنحك الشركات أداة ، كما فعل Facebook ، لإيقاف تشغيله ، ولكن تظل خوارزميات الصندوق الأسود هذه قائمة ، مع القليل جدًا من المناقشة لجميع النتائج السيئة المحتملة والكثير من النقاش حول النتائج الجيدة.

قال نولان: “عندما أتحدث إلى كبار الباحثين في مجال الذكاء الاصطناعي ، فإنهم يشيرون حرفيًا إلى هذا الآن على أنه لحظة أوبنهايمر الخاصة بهم”. “إنهم يتطلعون إلى قصته ليقولوا ما هي مسؤوليات العلماء الذين يطورون تقنيات جديدة قد يكون لها عواقب غير مقصودة.”

“هل تعتقد أن وادي السيليكون يفكر في ذلك الآن؟” سأله تود.

أجاب نولان: “يقولون أنهم يفعلون ذلك”. قال ضاحكًا: “وهذا مفيد. هذا على الأقل في المحادثة. وآمل أن تستمر عملية التفكير. أنا لا أقول أن قصة أوبنهايمر تقدم أي إجابات سهلة لهذه الأسئلة. لكنها على الأقل تخدم حكاية تحذيرية “.


اكتشاف المزيد من خيال التقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button

اكتشاف المزيد من خيال التقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading