شعار زيفيرنت

كيف يمكن أن يبدو استخدام الأمن لتنظيم شرائح الذكاء الاصطناعي

التاريخ:

قدم باحثون من OpenAI، وجامعة كامبريدج، وجامعة هارفارد، وجامعة تورونتو دراسات "استكشافية" أفكار حول كيفية تنظيم شرائح وأجهزة الذكاء الاصطناعيوكيف يمكن للسياسات الأمنية أن تمنع إساءة استخدام الذكاء الاصطناعي المتقدم.

توفر التوصيات طرقًا لقياس ومراجعة تطوير واستخدام أنظمة الذكاء الاصطناعي المتقدمة والرقائق التي تشغلها. تتضمن توصيات إنفاذ السياسة الحد من أداء الأنظمة وتنفيذ ميزات الأمان التي يمكنها تعطيل الشرائح المارقة عن بعد.

وكتب الباحثون: "إن تدريب أنظمة الذكاء الاصطناعي ذات القدرة العالية يتطلب حاليًا تجميع وتنسيق الآلاف من شرائح الذكاء الاصطناعي". "[I] إذا كانت هذه الأنظمة خطرة، فإن الحد من قوة الحوسبة المتراكمة يمكن أن يؤدي إلى الحد من إنتاج أنظمة الذكاء الاصطناعي التي يحتمل أن تكون خطرة."

لقد ركزت الحكومات إلى حد كبير على البرمجيات الخاصة بسياسة الذكاء الاصطناعي، وتعد هذه الورقة مقالة مصاحبة تغطي جانب الأجهزة من النقاش، كما يقول ناثان بروكوود، المحلل الرئيسي في Insight 64.

ومع ذلك، يحذر من أن الصناعة لن ترحب بأي ميزات أمنية تؤثر على أداء الذكاء الاصطناعي. إن جعل الذكاء الاصطناعي آمنًا من خلال الأجهزة "هو طموح نبيل، لكنني لا أستطيع أن أرى أيًا من هؤلاء يحقق ذلك. يقول: "لقد خرج الجني من المصباح ونتمنى لك حظًا سعيدًا في إعادته إليه".

اختناق الاتصالات بين المجموعات

أحد المقترحات التي يقترحها الباحثون هو وضع حد أقصى للحد من قدرة المعالجة الحسابية المتاحة لنماذج الذكاء الاصطناعي. وتتمثل الفكرة في وضع تدابير أمنية يمكنها اكتشاف إساءة استخدام أنظمة الذكاء الاصطناعي، وقطع استخدام الرقائق والحد منه.

وعلى وجه التحديد، يقترحون نهجًا مستهدفًا للحد من عرض النطاق الترددي بين مجموعات الذاكرة والرقائق. وكتب الباحثون أن البديل الأسهل - وهو قطع الوصول إلى الرقائق - لم يكن مثاليًا لأنه سيؤثر على الأداء العام للذكاء الاصطناعي.

ولم تقترح الورقة طرقًا لتنفيذ مثل هذه الحواجز الأمنية أو كيفية اكتشاف إساءة استخدام أنظمة الذكاء الاصطناعي.

وكتب الباحثون: "إن تحديد الحد الأمثل لعرض النطاق الترددي للاتصالات الخارجية هو مجال يستحق المزيد من البحث".

تتطلب أنظمة الذكاء الاصطناعي واسعة النطاق نطاقًا تردديًا هائلاً للشبكة، وتعد أنظمة الذكاء الاصطناعي مثل Microsoft Eagle وNvidia Eos من بين الأنظمة أسرع 10 حواسيب خارقة في العالم. توجد طرق للحد من أداء الشبكة للأجهزة التي تدعم لغة برمجة P4، والتي يمكنها تحليل حركة مرور الشبكة وإعادة تكوين أجهزة التوجيه والمحولات.

لكن من الجيد أن نطلب من صانعي الرقائق تنفيذ آليات أمنية للذكاء الاصطناعي يمكنها إبطاء الرقائق والشبكات، كما يقول بروكوود.

"إن شركات Arm وIntel وAMD جميعها مشغولة ببناء أسرع وأدق الرقائق التي يمكنهم تصنيعها لتكون قادرة على المنافسة. يقول: "لا أعرف كيف يمكنك الإبطاء".

الاحتمالات البعيدة تحمل بعض المخاطر

واقترح الباحثون أيضًا تعطيل الرقائق عن بُعد، وهو أمر قامت شركة إنتل بدمجه في أحدث شرائح الخوادم الخاصة بها. ميزة On Demand هي خدمة اشتراك ستسمح لعملاء Intel بتشغيل الميزات الموجودة على الشريحة مثل امتدادات الذكاء الاصطناعي وإيقاف تشغيلها مثل مقاعد ساخنة في تسلا.

واقترح الباحثون أيضًا نظام تصديق حيث تسمح الرقائق للأطراف المرخص لها فقط بالوصول إلى أنظمة الذكاء الاصطناعي عبر شهادات رقمية موقعة بالتشفير. يمكن أن توفر البرامج الثابتة إرشادات بشأن المستخدمين والتطبيقات المعتمدة، والتي يمكن تغييرها مع التحديثات.

وفي حين أن الباحثين لم يقدموا توصيات فنية حول كيفية القيام بذلك، فإن الفكرة تشبه كيفية قيام الحوسبة السرية بتأمين التطبيقات على الرقائق عن طريق التصديق على المستخدمين المصرح لهم. إنتل و AMD تمتلك حوسبة سرية على رقائقها، لكن الوقت لا يزال مبكرًا بالنسبة للتكنولوجيا الناشئة.

هناك أيضًا مخاطر تتعلق بتطبيق السياسات عن بعد. وكتب الباحثون: "إن آليات التنفيذ عن بعد لها جوانب سلبية كبيرة، وقد يكون لها ما يبررها فقط إذا كان الضرر المتوقع من الذكاء الاصطناعي مرتفعًا للغاية".

يوافق بروكوود.

"حتى لو استطعت، سيكون هناك الأشرار الذين سيتبعون ذلك. إن وضع قيود مصطنعة على الأشخاص الطيبين لن يكون فعالا.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة