Logo Zephyrnet

Microsoft meluncurkan alat keamanan ini untuk Azure AI

Tanggal:

Microsoft telah memperkenalkan serangkaian alat yang diduga membantu membuat model AI lebih aman untuk digunakan di Azure.

Sejak bisnis cloud dan kode mulai menyalurkan dana ke OpenAI dan menanamkan kemampuan chatbot ke kerajaan perangkat lunaknya – sebuah drama yang dilakukan dengan semangat yang sama oleh para pesaingnya di tengah janji besar mengenai produktivitas – Microsoft harus mengakui bahwa AI generatif memiliki risiko.

Grafik bahaya dikenal secara luas dan kadang-kadang diabaikan begitu saja. Satu dekade lalu, Elon Musk memperingatkan bahwa AI mungkin saja terjadi menghancurkan umat manusia. Namun kekhawatiran tersebut tidak menghentikannya untuk menyediakan AI mobil, pada miliknya megafon media sosial, dan mungkin segera masuk robot.

Munculnya model bahasa besar yang berhalusinasi dan memberikan respons yang salah atau merugikan telah menyebabkan kita kembali ke dewan gambar, tetapi ke ruang dewan untuk mendapatkan pendanaan lebih lanjut. Alih-alih menghasilkan produk yang aman dan beretika, industri teknologi justru mencoba menjinakkan model-model liar, atau setidaknya menjauhkan mereka dari pelanggan sehingga bisa mengamuk tanpa merugikan siapa pun.

Dan jika itu tidak berhasil, selalu ada ganti rugi dari tuntutan hukum, dengan syarat tertentu, dari pemasok.

Komitmen industri terhadap keselamatan AI sejalan dengan tuntutan pemerintah. Di AS pada hari Kamis, Kantor Manajemen dan Anggaran Gedung Putih (OMB) dikeluarkan kebijakan pemerintah yang pertama untuk mengatasi risiko AI.

Kebijakan ini mengharuskan badan-badan federal “untuk menerapkan perlindungan nyata ketika menggunakan AI dengan cara yang dapat berdampak pada hak atau keselamatan orang Amerika,” pada tanggal 1 Desember. Hal ini berarti penilaian risiko, pengujian, dan pemantauan, upaya untuk membatasi diskriminasi dan bias, dan untuk mendorong transparansi untuk aplikasi AI yang mencakup kesehatan, pendidikan, perumahan, dan pekerjaan.

Oleh karena itu, Microsoft menyampaikan langkah-langkah keamanan AI terbarunya melalui Sarah Bird, chief product officer AI yang bertanggung jawab, sebuah gelar yang menyiratkan keberadaan AI yang tidak bertanggung jawab – jika Anda bisa membayangkannya.

Bird mengatakan bahwa para pemimpin bisnis berusaha menyeimbangkan inovasi dan manajemen risiko, untuk memungkinkan mereka menggunakan AI generatif tanpa terpengaruh olehnya.

“Serangan injeksi yang cepat telah muncul sebagai tantangan yang signifikan, di mana pelaku jahat mencoba memanipulasi sistem AI untuk melakukan sesuatu di luar tujuan yang dimaksudkan, seperti memproduksi konten berbahaya atau mengambil data rahasia,” Bird menjelaskan dalam sebuah posting blog.

“Selain memitigasi risiko keamanan ini, organisasi juga memperhatikan kualitas dan keandalan. Mereka ingin memastikan bahwa sistem AI mereka tidak menghasilkan kesalahan atau menambahkan informasi yang tidak didukung oleh sumber data aplikasi, sehingga dapat mengikis kepercayaan pengguna.”

Karena keamanan dan akurasi tidak termasuk dalam biaya berlangganan AI, Microsoft melihat adanya peluang untuk menjualnya sebagai tambahan.

Pelanggan yang menggunakan Azure AI Studio untuk membantu mereka membuat aplikasi AI generatif dapat menantikan empat alat baru.

Pertama, ada Perisai Cepat, yang berjanji untuk membantu mempertahankan diri dari serangan injeksi cepat. Sebelumnya dikenal sebagai Deteksi Risiko Jailbreak dan kini sudah tersedia di publik, ini adalah cara untuk memitigasi risiko campur tangan langsung dan tidak langsung dalam model fondasi.

Serangan langsung melibatkan perintah (input) yang dirancang untuk membuat model mengabaikan pelatihan keselamatannya. Serangan tidak langsung mengacu pada upaya untuk menyelinapkan masukan ke dalam model. Salah satu cara untuk melakukan hal ini adalah dengan menyertakan teks tersembunyi dalam email dengan pengetahuan bahwa model AI yang bertindak atas nama penerima melalui, misalnya, Copilot di Outlook, akan mengurai pesan, menafsirkan teks tersembunyi sebagai perintah, dan mudah-mudahan bertindak sesuai instruksi, melakukan sesuatu seperti membalas secara diam-diam dengan data sensitif.

Kedua adalah Deteksi Kebumian, sebuah sistem untuk menangkap ketika model AI berhalusinasi, atau mengada-ada. Ini memberi pelanggan beberapa pilihan ketika klaim palsu terdeteksi, termasuk mengirimkan kembali tanggapan untuk direvisi sebelum ditampilkan. Microsoft mengatakan pihaknya telah mencapai hal ini dengan membangun model bahasa khusus yang mengevaluasi klaim tidak berdasar berdasarkan dokumen sumber. Jadi jawaban terhadap keamanan model AI adalah, Anda dapat menebaknya, model lain.

Meskipun ini merupakan langkah luar biasa menuju AI yang dapat dipercaya, masalahnya masih belum terpecahkan

Ketiga, kita punya Evaluasi keselamatan dengan bantuan AI di AI Studio, yang menyediakan kerangka pengujian untuk menyajikan templat dan parameter cepat ke model yang menguji berbagai interaksi permusuhan dengan aplikasi pelanggan. Sekali lagi, AIlah yang menguji AI.

Dan akhirnya, ada “pemantauan risiko dan keselamatan”, fitur untuk Layanan Azure OpenAI yang menyediakan metrik konten berbahaya.

Vinu Sankar Sadasivan, seorang mahasiswa doktoral di Universitas Maryland yang membantu mengembangkan serangan BINATANG di LLM, diberitahu Pendaftaran Meskipun menarik untuk melihat Azure membangun alat untuk membuat AI lebih aman, menambahkan lebih banyak model ke dalamnya akan memperluas potensi serangan.

“Evaluasi keselamatan serta alat pemantauan risiko dan keselamatan Azure penting untuk menyelidiki keandalan model AI,” katanya. “Meskipun ini merupakan langkah luar biasa menuju AI yang dapat dipercaya, masalahnya masih belum terpecahkan. Misalnya, Prompt Shields yang mereka perkenalkan mungkin menggunakan model AI lain untuk mendeteksi dan memblokir serangan cepat tidak langsung. Model AI ini rentan terhadap ancaman seperti serangan musuh.

“Musuh dapat memanfaatkan kerentanan ini untuk menerobos Prompt Shields. Meskipun pesan sistem keamanan terbukti efektif dalam beberapa kasus, serangan yang ada seperti BEAST dapat menyerang model AI untuk melakukan jailbreak dalam waktu singkat. Meskipun penerapan pertahanan pada sistem AI bermanfaat, penting untuk tetap menyadari potensi kelemahannya.” ®

tempat_img

Intelijen Terbaru

tempat_img