Logo Zephyrnet

Seperti Apa Penggunaan Keamanan untuk Mengatur Chip AI

Tanggal:

Para peneliti dari OpenAI, Universitas Cambridge, Universitas Harvard, dan Universitas Toronto menawarkan “eksplorasi” ide tentang cara mengatur chip dan perangkat keras AI, dan bagaimana kebijakan keamanan dapat mencegah penyalahgunaan AI tingkat lanjut.

Rekomendasi tersebut memberikan cara untuk mengukur dan mengaudit pengembangan dan penggunaan sistem AI canggih serta chip yang mendukungnya. Rekomendasi penegakan kebijakan termasuk membatasi kinerja sistem dan menerapkan fitur keamanan yang dapat menonaktifkan chip jahat dari jarak jauh.

“Melatih sistem AI yang berkemampuan tinggi saat ini memerlukan pengumpulan dan pengaturan ribuan chip AI,” tulis para peneliti. “Jika sistem ini berpotensi berbahaya, maka membatasi akumulasi daya komputasi dapat membatasi produksi sistem AI yang berpotensi berbahaya.”

Pemerintah sebagian besar berfokus pada perangkat lunak untuk kebijakan AI, dan makalah ini merupakan bagian pendamping yang membahas sisi perangkat keras dari perdebatan tersebut, kata Nathan Brookwood, analis utama Insight 64.

Namun, industri tidak akan menerima fitur keamanan apa pun yang memengaruhi kinerja AI, ia memperingatkan. Menjadikan AI aman melalui perangkat keras “merupakan cita-cita yang mulia, namun saya tidak melihat satu pun dari mereka yang berhasil. Jin sudah keluar dari lampu dan semoga berhasil masuk kembali,” katanya.

Memperlambat Koneksi Antar Cluster

Salah satu usulan yang disarankan para peneliti adalah pembatasan kapasitas pemrosesan komputasi yang tersedia untuk model AI. Idenya adalah untuk menerapkan langkah-langkah keamanan yang dapat mengidentifikasi penyalahgunaan sistem AI, serta menghentikan dan membatasi penggunaan chip.

Secara khusus, mereka menyarankan pendekatan yang ditargetkan untuk membatasi bandwidth antara memori dan cluster chip. Alternatif yang lebih mudah – dengan memutus akses ke chip – tidaklah ideal karena akan mempengaruhi kinerja AI secara keseluruhan, tulis para peneliti.

Makalah ini tidak menyarankan cara untuk menerapkan pagar keamanan tersebut atau bagaimana penyalahgunaan sistem AI dapat dideteksi.

“Menentukan batas bandwidth optimal untuk komunikasi eksternal adalah bidang yang memerlukan penelitian lebih lanjut,” tulis para peneliti.

Sistem AI skala besar memerlukan bandwidth jaringan yang sangat besar, dan sistem AI seperti Eagle dari Microsoft dan Eos dari Nvidia adalah salah satunya. 10 superkomputer tercepat di dunia. Ada cara untuk membatasi kinerja jaringan untuk perangkat yang mendukung bahasa pemrograman P4, yang dapat menganalisis lalu lintas jaringan dan mengkonfigurasi ulang router dan switch.

Namun semoga berhasil meminta pembuat chip untuk menerapkan mekanisme keamanan AI yang dapat memperlambat chip dan jaringan, kata Brookwood.

“Arm, Intel, dan AMD semuanya sibuk membangun chip tercepat dan tercanggih yang dapat mereka buat agar dapat bersaing. Saya tidak tahu bagaimana Anda bisa memperlambatnya,” katanya.

Kemungkinan Jarak Jauh Membawa Beberapa Risiko

Para peneliti juga menyarankan untuk menonaktifkan chip dari jarak jauh, yang merupakan sesuatu yang telah dibangun Intel ke dalam chip server terbarunya. Fitur Sesuai Permintaan adalah layanan berlangganan yang memungkinkan pelanggan Intel mengaktifkan dan menonaktifkan fitur on-chip seperti ekstensi AI seperti kursi berpemanas di Tesla.

Para peneliti juga menyarankan skema pengesahan di mana chip hanya mengizinkan pihak yang berwenang untuk mengakses sistem AI melalui sertifikat digital yang ditandatangani secara kriptografis. Firmware dapat memberikan pedoman tentang pengguna dan aplikasi resmi, yang dapat diubah dengan pembaruan.

Meskipun para peneliti tidak memberikan rekomendasi teknis tentang cara melakukan hal ini, idenya serupa dengan bagaimana komputasi rahasia mengamankan aplikasi pada chip dengan membuktikan pengguna yang berwenang. Intel dan AMD memiliki komputasi rahasia pada chip mereka, namun ini masih merupakan tahap awal bagi munculnya teknologi.

Ada juga risiko dalam menegakkan kebijakan dari jarak jauh. “Mekanisme penegakan hukum jarak jauh mempunyai kelemahan yang signifikan, dan hanya dapat dilakukan jika perkiraan kerugian akibat AI sangat tinggi,” tulis para peneliti.

Brookwood setuju.

“Kalaupun bisa, akan ada orang jahat yang akan mengejarnya. Memberikan batasan yang dibuat-buat kepada orang-orang baik tidak akan efektif,” katanya.

tempat_img

Intelijen Terbaru

tempat_img