كيف يمكن للحوسبة السرية أن تؤمن الاعتماد التوليدي للذكاء الاصطناعي


الذكاء الاصطناعي التوليدي لديه القدرة على تغيير كل شيء. يمكنه إعلام المنتجات والشركات والصناعات الجديدة وحتى الاقتصادات. ولكن ما يجعله مختلفًا وأفضل من الذكاء الاصطناعي “التقليدي” قد يجعله أيضًا خطيرًا.

لقد فتحت قدرته الفريدة على الإنشاء مجموعة جديدة تمامًا من مخاوف الأمان والخصوصية.

تضطر الشركات فجأة إلى طرح أسئلة جديدة على نفسها: هل لدي الحق في بيانات التدريب؟ إلى النموذج؟ إلى النواتج؟ هل يمتلك النظام نفسه حقوقًا في البيانات التي يتم إنشاؤها في المستقبل؟ كيف يتم حماية الحقوق في هذا النظام؟ كيف أحكم خصوصية البيانات في نموذج باستخدام الذكاء الاصطناعي التوليدي؟ والقائمة تطول.

ليس من المستغرب أن العديد من الشركات تسير على ما يرام. دفعت نقاط الضعف الأمنية والخصوصية الصارخة إلى جانب التردد في الاعتماد على حلول Band-Aid الحالية الكثيرين إلى حظر هذه الأدوات تمامًا. لكن هناك أمل.

الحوسبة السرية – نهج جديد لأمن البيانات يحمي البيانات أثناء الاستخدام ويضمن تكامل الكود – هو الحل للمخاوف الأمنية الأكثر تعقيدًا وخطورة لنماذج اللغات الكبيرة (LLMs). إنه مستعد لمساعدة المؤسسات على تبني القوة الكاملة للذكاء الاصطناعي التوليدي دون المساومة على السلامة. قبل أن أشرح ، دعنا أولاً نلقي نظرة على ما يجعل الذكاء الاصطناعي التوليدي ضعيفًا بشكل فريد.

يتمتع الذكاء الاصطناعي التوليدي بالقدرة على استيعاب بيانات الشركة بأكملها ، أو حتى مجموعة فرعية غنية بالمعرفة ، في نموذج ذكي قابل للاستعلام يوفر أفكارًا جديدة تمامًا. هذا له جاذبية هائلة ، ولكنه أيضًا يجعل من الصعب للغاية على الشركات الحفاظ على سيطرتها على بيانات الملكية الخاصة بها والبقاء ملتزمة بالمتطلبات التنظيمية المتطورة.

يجب أن تكون حماية بيانات ونماذج التدريب أولوية قصوى ؛ لم يعد يكفي تشفير الحقول في قواعد البيانات أو الصفوف في النموذج.

يمكن أن يؤدي هذا التركيز للمعرفة والنتائج التوليدية اللاحقة ، بدون أمان كافٍ للبيانات والتحكم في الثقة ، إلى تسليح الذكاء الاصطناعي التوليدي عن غير قصد لإساءة الاستخدام والسرقة والاستخدام غير المشروع.

في الواقع ، يقوم الموظفون بشكل متزايد بتغذية مستندات العمل السرية وبيانات العميل ورمز المصدر وأجزاء أخرى من المعلومات المنظمة في LLMs. نظرًا لأن هذه النماذج مدربة جزئيًا على مدخلات جديدة ، فقد يؤدي ذلك إلى تسريبات كبيرة للملكية الفكرية في حالة حدوث خرق. وإذا تم اختراق النماذج نفسها ، فقد يتم أيضًا تسريب أي محتوى كانت الشركة ملزمة قانونًا أو تعاقديًا بحمايته. في أسوأ السيناريوهات ، ستسمح سرقة النموذج وبياناته لمنافس أو ممثل دولة قومية بتكرار كل شيء وسرقة تلك البيانات.

هذه مخاطر كبيرة. وجدت شركة Gartner مؤخرًا أن 41٪ من المؤسسات قد تعرضت لخرق للخصوصية أو حادث أمني للذكاء الاصطناعي – وأكثر من نصفها نتج عن اختراق في البيانات من قبل طرف داخلي. لا بد لظهور الذكاء الاصطناعي التوليدي من زيادة هذه الأرقام.

بشكل منفصل ، تحتاج الشركات أيضًا إلى مواكبة لوائح الخصوصية المتطورة عندما تستثمر في الذكاء الاصطناعي التوليدي. في جميع الصناعات ، هناك مسؤولية عميقة وحافز للبقاء ملتزمًا بمتطلبات البيانات. في مجال الرعاية الصحية ، على سبيل المثال ، يتمتع الطب الشخصي المدعوم بالذكاء الاصطناعي بإمكانيات هائلة عندما يتعلق الأمر بتحسين نتائج المرضى والكفاءة العامة. لكن سيحتاج مقدمو الخدمات والباحثون إلى الوصول إلى كميات كبيرة من بيانات المرضى الحساسة والعمل معها مع الاستمرار في الامتثال ، مما يمثل مأزقًا جديدًا.

لمواجهة هذه التحديات ، والباقي الذي سيظهر حتماً ، يحتاج الذكاء الاصطناعي التوليدي إلى أساس أمني جديد. يجب أن تكون حماية بيانات ونماذج التدريب أولوية قصوى ؛ لم يعد يكفي تشفير الحقول في قواعد البيانات أو الصفوف في النموذج.

في السيناريوهات التي تُستخدم فيها نتائج الذكاء الاصطناعي التوليدية لاتخاذ قرارات مهمة ، سيكون الدليل على سلامة الكود والبيانات – والثقة التي تنقلها – أمرًا بالغ الأهمية ، سواء بالنسبة للامتثال أو لإدارة المسؤولية القانونية المحتملة. يجب أن تكون هناك طريقة لتوفير حماية محكمة الإغلاق للحساب بأكمله والحالة التي يتم تشغيلها فيها.

ظهور الذكاء الاصطناعي التوليدي “السري”

تقدم الحوسبة السرية طريقة بسيطة لكنها قوية للغاية للخروج مما قد يبدو لولا ذلك مشكلة مستعصية على الحل. باستخدام الحوسبة السرية ، يتم عزل البيانات و IP تمامًا عن مالكي البنية التحتية ولا يمكن الوصول إليها إلا للتطبيقات الموثوقة التي تعمل على وحدات المعالجة المركزية الموثوقة. يتم ضمان خصوصية البيانات من خلال التشفير ، حتى أثناء التنفيذ.

يصبح أمان وخصوصية البيانات من الخصائص الجوهرية للحوسبة السحابية — لدرجة أنه حتى إذا قام مهاجم ضار باختراق بيانات البنية التحتية ، فإن عنوان IP والرمز غير مرئيين تمامًا لهذا الفاعل السيئ. هذا مثالي للذكاء الاصطناعي التوليدي ، مما يخفف من مخاطر الأمان والخصوصية والهجوم.

اكتسبت الحوسبة السرية زخمًا متزايدًا باعتبارها عامل تغيير في قواعد اللعبة الأمنية. يستثمر كل موفر خدمة سحابي رئيسي وصانع شرائح فيها ، مع إعلان جميع الرواد في Azure و AWS و GCP فعاليته. الآن ، يمكن أن تكون نفس التقنية التي تحول حتى أكثر المعوقات السحابية ثباتًا هي الحل الذي يساعد الذكاء الاصطناعي التوليدي على الإقلاع بأمان. يجب أن يبدأ القادة في أخذها على محمل الجد وفهم آثارها العميقة.

من خلال الحوسبة السرية ، تحصل الشركات على ضمان أن نماذج الذكاء الاصطناعي التوليدية تتعلم فقط من البيانات التي تنوي استخدامها ، ولا شيء غير ذلك. يوفر التدريب باستخدام مجموعات البيانات الخاصة عبر شبكة من المصادر الموثوقة عبر السحابة تحكمًا كاملاً وراحة البال. تظل جميع المعلومات ، سواء كانت مدخلاً أو مخرجات ، محمية تمامًا ، وخلف جدران الشركة الأربعة.


اكتشاف المزيد من خيال التقنية

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من خيال التقنية

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading