Zephyrnet لوگو

مائیکروسافٹ Azure AI کے لیے ان حفاظتی ٹولز کو رول آؤٹ کرتا ہے۔

تاریخ:

مائیکروسافٹ نے مبینہ طور پر AI ماڈلز کو Azure میں استعمال کرنے کے لیے محفوظ بنانے میں مدد کے لیے ٹولز کا ایک سیٹ متعارف کرایا ہے۔

چونکہ کلاؤڈ اینڈ کوڈ بز نے اوپن اے آئی میں فنڈز جمع کرنا شروع کر دیا اور چیٹ بوٹ کی صلاحیتوں کے ساتھ اپنی سافٹ ویئر ایمپائر کو شامل کرنا شروع کیا – ایک ڈرامہ جو حریفوں کی طرف سے پیداوری کے بارے میں شاندار وعدوں کے درمیان مساوی جذبے کے ساتھ نافذ کیا گیا – مائیکروسافٹ کو یہ تسلیم کرنا پڑا کہ تخلیقی AI خطرات کے ساتھ آتا ہے۔

۔ خطرات بڑے پیمانے پر جانا جاتا ہے اور کبھی کبھی بے دردی سے ایک طرف صاف کر دیا جاتا ہے۔ ایک دہائی پہلے، ایلون مسک نے خبردار کیا تھا کہ AI شاید صرف انسانیت کو تباہ. پھر بھی اس تشویش نے اسے AI دستیاب کرنے سے نہیں روکا۔ کاریں، اس پر سوشل میڈیا میگا فون، اور شاید جلد ہی اندر روبوٹس.

زبان کے بڑے ماڈلز کا ظہور جو کہ غلط یا نقصان دہ جوابات کو فریب دیتا ہے اور پیش کرتا ہے ڈرائنگ بورڈ میں واپسی کا باعث بنا، لیکن مزید فنڈنگ ​​کے لیے بورڈ روم میں۔ ایک محفوظ، اخلاقی پروڈکٹ تیار کرنے کے بجائے، ٹیک انڈسٹری جنگلی ماڈلز کو قابو کرنے کی کوشش کر رہی ہے، یا کم از کم انہیں صارفین سے اتنا دور رکھتی ہے جو کسی کو تکلیف پہنچائے بغیر آپس میں چل سکے۔

اور اگر یہ کام نہیں کرتا ہے، تو ہمیشہ ہے معاوضہ قانونی دعووں سے، بعض شرائط کے ساتھ، سپلائرز سے۔

AI سیفٹی کے لیے صنعت کے وعدے حکومتی مطالبات کے مطابق ہیں۔ امریکہ میں جمعرات کو وائٹ ہاؤس آفس آف مینجمنٹ اینڈ بجٹ (OMB) جاری کیا اے آئی کے خطرات سے نمٹنے کے لیے اس کی پہلی حکومتی وسیع پالیسی۔

پالیسی کے تحت وفاقی ایجنسیوں سے 1 دسمبر تک AI کا استعمال کرتے ہوئے ٹھوس حفاظتی اقدامات پر عمل درآمد کرنے کی ضرورت ہے جس سے امریکیوں کے حقوق یا حفاظت متاثر ہو سکتی ہے۔ اس کا مطلب ہے خطرے کی تشخیص، جانچ، اور نگرانی، امتیازی سلوک اور تعصب کو محدود کرنے کی کوششیں، اور فروغ دینا۔ صحت، تعلیم، رہائش اور روزگار کو چھونے والی AI ایپلی کیشنز کے لیے شفافیت۔

اس طرح مائیکروسافٹ ذمہ دار AI کی چیف پروڈکٹ آفیسر سارہ برڈ کے ذریعے اپنے تازہ ترین AI حفاظتی اقدامات کا لفظ لاتا ہے، ایک ایسا عنوان جو غیر ذمہ دار AI کے وجود کو ظاہر کرتا ہے – اگر آپ اس کا تصور کر سکتے ہیں۔

برڈ کا کہنا ہے کہ کاروباری رہنما جدت اور رسک مینجمنٹ میں توازن پیدا کرنے کی کوشش کر رہے ہیں، تاکہ وہ اس سے کاٹے بغیر جنریٹو AI استعمال کر سکیں۔

برڈ نے وضاحت کرتے ہوئے کہا کہ "فوری انجیکشن کے حملے ایک اہم چیلنج کے طور پر ابھرے ہیں، جہاں بدنیتی پر مبنی اداکار AI نظام کو اس کے مطلوبہ مقصد سے باہر کچھ کرنے کے لیے جوڑ توڑ کرنے کی کوشش کرتے ہیں، جیسے کہ نقصان دہ مواد تیار کرنا یا خفیہ ڈیٹا کو خارج کرنا،" برڈ نے ایک میں وضاحت کی۔ بلاگ پوسٹ.

"ان حفاظتی خطرات کو کم کرنے کے علاوہ، تنظیمیں معیار اور وشوسنییتا کے بارے میں بھی فکر مند ہیں۔ وہ اس بات کو یقینی بنانا چاہتے ہیں کہ ان کے AI سسٹم غلطیاں پیدا نہیں کر رہے ہیں یا ایسی معلومات شامل نہیں کر رہے ہیں جو ایپلیکیشن کے ڈیٹا کے ذرائع میں ثابت نہیں ہیں، جس سے صارف کا اعتماد ختم ہو سکتا ہے۔"

چونکہ AI سبسکرپشن فیس میں حفاظت اور درستگی شامل نہیں ہے، مائیکروسافٹ ایک موقع دیکھتا ہے۔ انہیں فروخت کرنے کے لئے ایک اضافہ کے طور پر.

جنریٹیو AI ایپس بنانے میں ان کی مدد کے لیے Azure AI Studio کا استعمال کرنے والے صارفین چار نئے ٹولز کا انتظار کر سکتے ہیں۔

سب سے پہلے، وہاں ہے فوری شیلڈز، جو فوری انجیکشن حملوں کے خلاف دفاع میں مدد کرنے کا وعدہ کرتا ہے۔ پہلے جیل بریک رسک ڈیٹیکشن کے نام سے جانا جاتا تھا اور اب عوامی پیش نظارہ میں، یہ فاؤنڈیشن ماڈلز میں براہ راست اور بالواسطہ فوری مداخلت کے خطرے کو کم کرنے کا ایک طریقہ ہے۔

براہ راست حملوں میں ماڈل کو اس کی حفاظتی تربیت کو نظر انداز کرنے کے لیے ڈیزائن کیے گئے اشارے (ان پٹ) شامل ہیں۔ بالواسطہ حملے کسی ماڈل میں ان پٹ کو چھپنے کی کوششوں کا حوالہ دیتے ہیں۔ ایسا کرنے کا ایک طریقہ یہ ہو سکتا ہے کہ ای میل میں چھپے ہوئے متن کو اس علم کے ساتھ شامل کیا جائے جس کے ذریعے وصول کنندہ کی جانب سے کام کرنے والا ایک AI ماڈل کہے، آؤٹ لک میں Copilot، پیغام کو پارس کرے گا، چھپے ہوئے متن کو کمانڈ کے طور پر تشریح کرے گا، اور امید ہے کہ ہدایات پر عمل کریں، کچھ ایسا کریں جیسے حساس ڈیٹا کے ساتھ خاموشی سے جواب دینا۔

دوسرا ہے زمینی پن کا پتہ لگانا، جب AI ماڈلز کو دھوکہ دیتے ہیں، یا چیزیں بناتے ہیں تو اسے پکڑنے کا ایک نظام۔ جھوٹے دعوے کا پتہ چلنے پر یہ صارفین کو کئی اختیارات فراہم کرتا ہے، بشمول ڈسپلے سے پہلے نظر ثانی کے لیے جواب کو واپس بھیجنا۔ مائیکروسافٹ کا کہنا ہے کہ اس نے اپنی مرضی کے مطابق زبان کا ماڈل بنا کر یہ کامیابی حاصل کی ہے جو ماخذ دستاویزات کی بنیاد پر غیر مصدقہ دعووں کی جانچ کرتا ہے۔ تو AI ماڈل کی حفاظت کا جواب ہے، آپ نے اندازہ لگایا، ایک اور ماڈل۔

اگرچہ یہ قابل اعتماد AI کی طرف ایک شاندار قدم ہے، لیکن مسئلہ ابھی تک حل طلب نہیں ہے۔

تیسرا، ہمارے پاس ہے۔ AI کی مدد سے حفاظتی جائزہ AI اسٹوڈیو میں، جو ماڈل کے لیے فوری ٹیمپلیٹس اور پیرامیٹرز پیش کرنے کے لیے ایک ٹیسٹنگ فریم ورک فراہم کرتا ہے جو گاہک کی درخواست کے ساتھ مختلف مخالفانہ تعاملات کی جانچ کرتا ہے۔ ایک بار پھر، AI کی جانچ کرنا AI ہے۔

اور آخر میں ، وہاں ہے "خطرات اور حفاظت کی نگرانی"، Azure OpenAI سروس کے لیے ایک خصوصیت جو نقصان دہ مواد کی پیمائش فراہم کرتی ہے۔

میری لینڈ یونیورسٹی میں ڈاکٹریٹ کے طالب علم وینو سنکر سداشیون نے اس کی ترقی میں مدد کی۔ BEAST حملہ LLMs پر، بتایا رجسٹر کہ جب کہ AI کو مزید محفوظ بنانے کے لیے Azure بلڈنگ ٹولز کو دیکھنا بہت پرجوش ہے، لیکن اس مکس میں مزید ماڈلز شامل کرنے سے ممکنہ حملے کی سطح پھیل جاتی ہے۔

انہوں نے کہا، "Azure کے حفاظتی جائزے اور خطرے اور حفاظت کی نگرانی کے آلات AI ماڈلز کی وشوسنییتا کی چھان بین کے لیے اہم ہیں۔" "اگرچہ یہ قابل اعتماد AI کی طرف ایک شاندار قدم ہے، لیکن مسئلہ ابھی تک حل نہیں ہوا ہے۔ مثال کے طور پر، پرامپٹ شیلڈز جو وہ متعارف کراتے ہیں وہ ممکنہ طور پر بالواسطہ فوری حملوں کا پتہ لگانے اور روکنے کے لیے ایک اور AI ماڈل استعمال کرتے ہیں۔ یہ AI ماڈل مخالفانہ حملوں جیسے خطرات کا شکار ہو سکتا ہے۔

"مخالفین فوری شیلڈز کو نظرانداز کرنے کے لیے ان کمزوریوں کا فائدہ اٹھا سکتے ہیں۔ اگرچہ حفاظتی نظام کے پیغامات کچھ معاملات میں کارآمد ثابت ہوئے ہیں، لیکن موجودہ حملے جیسے کہ BEAST AI ماڈلز پر مخالفانہ طور پر حملہ کر سکتے ہیں تاکہ انہیں فوری طور پر جیل بریک کیا جا سکے۔ اگرچہ AI سسٹمز کے لیے دفاع کو نافذ کرنا فائدہ مند ہے، لیکن ان کی ممکنہ خرابیوں سے باخبر رہنا ضروری ہے۔ ®

اسپاٹ_مگ

تازہ ترین انٹیلی جنس

اسپاٹ_مگ