لوگوی Zephyrnet

AWS CISO: به نحوه استفاده هوش مصنوعی از داده های شما توجه کنید

تاریخ:

شرکت ها به طور فزاینده ای از هوش مصنوعی مولد برای خودکارسازی فرآیندهای فناوری اطلاعات، شناسایی تهدیدات امنیتی و در اختیار گرفتن عملکردهای خط مقدم خدمات مشتری استفاده می کنند. یک نظرسنجی IBM در سال 2023 دریافتند که 42 درصد از شرکت های بزرگ به طور فعال از هوش مصنوعی استفاده می کنند و 40 درصد دیگر در حال کاوش یا آزمایش با هوش مصنوعی هستند.

در تقاطع اجتناب‌ناپذیر هوش مصنوعی و ابر، شرکت‌ها باید به این فکر کنند که چگونه ابزارهای هوش مصنوعی را در فضای ابری ایمن کنند. یکی از افرادی که در مورد این موضوع بسیار فکر کرده است، کریس بتز است که در آگوست گذشته به عنوان CISO در خدمات وب آمازون انتخاب شد.

قبل از AWS، بتز معاون اجرایی و CISO Capital One بود. بتز همچنین به عنوان معاون ارشد و مدیر ارشد امنیتی در Lumen Technologies و در نقش‌های امنیتی در اپل، مایکروسافت و CBS کار می‌کرد.

دارک ریدینگ اخیراً با بتز درباره این موضوع صحبت کرده است امنیت بارهای کاری هوش مصنوعی در فضای ابری. نسخه ویرایش شده آن گفتگو در ادامه می آید.

Dark Reading: برخی از چالش‌های بزرگ برای ایمن کردن حجم کاری هوش مصنوعی در فضای ابری چیست؟

کریس بتز: هنگامی که من با بسیاری از مشتریان خود در مورد هوش مصنوعی مولد صحبت می کنم، آن مکالمات اغلب با این جمله شروع می شود: «من این داده های واقعا حساس را دارم و به دنبال ارائه قابلیتی به مشتریانم هستم. چگونه این کار را به روشی ایمن و مطمئن انجام دهم؟» من واقعاً از این مکالمه قدردانی می کنم زیرا بسیار مهم است که مشتریان ما بر نتیجه ای که می خواهند به آن دست یابند تمرکز کنند.

Dark Reading: مشتریان بیشتر نگران چه چیزی هستند؟

بتز: مکالمه باید با این مفهوم شروع شود که "داده های شما داده های شما هستند." ما یک مزیت بزرگ داریم که می‌توانم بر روی زیرساخت‌های فناوری اطلاعات ایجاد کنم که کار واقعاً خوبی برای نگه داشتن داده‌ها در جایی که هستند انجام می‌دهد. بنابراین اولین توصیه ای که می کنم این است: بدانید که داده های شما کجا هستند. چگونه محافظت می شود؟ چگونه از آن در مدل هوش مصنوعی مولد استفاده می شود؟

دومین موردی که ما در مورد آن صحبت می کنیم این است که در تعامل با یک مدل هوش مصنوعی مولد اغلب از حساس ترین داده های مشتریانشان استفاده می شود. هنگامی که از یک مدل هوش مصنوعی مولد در مورد یک تراکنش خاص سوال می کنید، از اطلاعات افراد درگیر در آن تراکنش استفاده خواهید کرد.

Dark Reading: آیا شرکت‌ها هم در مورد کاری که هوش مصنوعی با داده‌های داخلی شرکت‌شان انجام می‌دهد و هم درباره اطلاعات مشتریان نگران هستند؟

بتز: مشتریان بیشتر مایلند از هوش مصنوعی مولد در تعاملات خود با مشتریان خود و در استخراج و بهره گیری از حجم عظیمی از داده هایی که در داخل دارند استفاده کنند و این کار را برای کارمندان داخلی یا مشتریان خود انجام دهند. برای شرکت‌ها بسیار مهم است که داده‌های فوق‌العاده حساس را به روشی ایمن و مطمئن مدیریت کنند، زیرا این رگ حیاتی کسب‌وکارشان است.

شرکت‌ها باید به این فکر کنند که داده‌هایشان کجاست و چگونه هنگام ارائه درخواست‌های هوش مصنوعی و زمانی که پاسخ‌ها را دریافت می‌کنند، محافظت می‌شوند.

Dark Reading: آیا کیفیت پاسخ ها و امنیت داده ها به هم مرتبط هستند؟

بتز: کاربران هوش مصنوعی همیشه باید به این فکر کنند که آیا پاسخ های باکیفیتی دریافت می کنند یا خیر. دلیل امنیت این است که مردم به سیستم های کامپیوتری خود اعتماد کنند. اگر این سیستم پیچیده را که از یک مدل هوش مصنوعی مولد برای ارائه چیزی به مشتری استفاده می‌کند، کنار هم می‌گذارید، باید مشتری اطمینان داشته باشد که هوش مصنوعی اطلاعات درستی را به آنها می‌دهد تا بر اساس آن عمل کنند و از اطلاعات او محافظت می‌کند.

Dark Reading: آیا راه‌های خاصی وجود دارد که AWS بتواند در مورد نحوه محافظت در برابر حملات به هوش مصنوعی در فضای ابری به اشتراک بگذارد؟ من در مورد تزریق سریع، حملات مسمومیت، حملات خصمانه، این نوع چیزها فکر می کنم.

بتز: با وجود پایه‌های قوی از قبل، AWS به خوبی آماده بود تا با این چالش روبرو شود، زیرا ما سال‌ها با هوش مصنوعی کار می‌کردیم. ما تعداد زیادی راه‌حل‌های هوش مصنوعی داخلی و تعدادی سرویس داریم که مستقیماً به مشتریان خود ارائه می‌کنیم، و امنیت یکی از موارد مهم در نحوه توسعه این راه‌حل‌ها بوده است. این چیزی است که مشتریان ما در مورد آن می پرسند، و این همان چیزی است که آنها انتظار دارند.

به عنوان یکی از بزرگترین ارائه دهندگان ابر، ما دید گسترده ای نسبت به نیازهای امنیتی در حال تکامل در سراسر جهان داریم. اطلاعات تهدیدی که ما دریافت می‌کنیم جمع‌آوری می‌شود و برای ایجاد بینش‌های عملی استفاده می‌شود که در ابزارها و خدمات مشتری مانند GuardDuty. علاوه بر این، اطلاعات تهدید ما برای ایجاد اقدامات امنیتی خودکار از طرف مشتریان برای ایمن نگه داشتن داده های آنها استفاده می شود.

Dark Reading: ما در مورد فروشندگان امنیت سایبری که از هوش مصنوعی و یادگیری ماشینی برای شناسایی تهدیدها با جستجوی رفتار غیرعادی در سیستم هایشان استفاده می کنند، زیاد شنیده ایم. راه های دیگری که شرکت ها از هوش مصنوعی برای کمک به امنیت خود استفاده می کنند چیست؟

بتز: من مشتریانی را دیده ام که کارهای شگفت انگیزی با هوش مصنوعی مولد انجام می دهند. ما دیده‌ایم که آنها از CodeWhisperer [سازنده کد مبتنی بر هوش مصنوعی AWS] برای نمونه‌سازی سریع و توسعه فناوری‌ها استفاده می‌کنند. من تیم هایی را دیده ام که از CodeWhisperer برای کمک به آنها استفاده می کنند کد امن بسازید و اطمینان حاصل کنیم که با شکاف های کد مقابله می کنیم.

ما همچنین راه‌حل‌های هوش مصنوعی مولد ساخته‌ایم که با برخی از سیستم‌های امنیتی داخلی ما در ارتباط است. همانطور که می توانید تصور کنید، بسیاری از تیم های امنیتی با حجم عظیمی از اطلاعات سر و کار دارند. هوش مصنوعی مولد به ترکیبی از این داده‌ها اجازه می‌دهد تا برای سازندگان و تیم‌های امنیتی بسیار قابل استفاده باشد تا بفهمند در سیستم‌ها چه می‌گذرد، سؤالات بهتری بپرسید و آن داده‌ها را جمع آوری کنید.

وقتی شروع کردم به فکر کردن در مورد کمبود استعداد در امنیت سایبری، هوش مصنوعی مولد امروزه نه تنها به بهبود سرعت توسعه نرم افزار و بهبود کدگذاری ایمن کمک می کند، بلکه به جمع آوری داده ها نیز کمک می کند. این به ما کمک خواهد کرد زیرا توانایی های انسانی ما را تقویت می کند. هوش مصنوعی به ما کمک می کند تا اطلاعات را برای حل مشکلات پیچیده گرد هم بیاوریم و به ارائه داده ها به مهندسان امنیتی و تحلیلگران کمک می کند تا بتوانند سوالات بهتری بپرسند.

Dark Reading: آیا هیچ تهدید امنیتی مخصوص هوش مصنوعی و فضای ابری می بینید؟

بتز: من زمان زیادی را با محققان امنیتی صرف بررسی حملات پیشرفته هوش مصنوعی و نحوه نگاه مهاجمان به آن کرده‌ام. من در این فضا به دو دسته چیز فکر می کنم. اولین طبقه این است که ما می بینیم که بازیگران مخرب شروع به استفاده از هوش مصنوعی مولد می کنند تا در کاری که قبلا انجام می دهند سریعتر و بهتر عمل کنند. محتوای مهندسی اجتماعی نمونه ای از این موارد است.

مهاجمان همچنین از فناوری هوش مصنوعی برای کمک به نوشتن کد سریعتر استفاده می کنند. این بسیار شبیه به جایی است که دفاع در آن قرار دارد. بخشی از قدرت این فناوری این است که دسته ای از فعالیت ها را آسان می کند و این در مورد مهاجمان صادق است، اما در مورد مدافعان نیز بسیار صادق است.

حوزه دیگری که می بینم محققان شروع به بررسی بیشتر کردند این است که این مدل های هوش مصنوعی مولد کد هستند. مانند سایر کدها، آنها مستعد داشتن نقاط ضعف هستند. این مهم است که بدانیم چگونه آنها را ایمن کنیم و مطمئن شویم که آنها در محیطی که دارای دفاع است وجود دارند.

نقطه_img

جدیدترین اطلاعات

نقطه_img