Logo Zephyrnet

Simulasi Kesalahan untuk Keamanan AI. Inovasi dalam Verifikasi – Semiwiki

Tanggal:

Lebih banyak konten otomotif 😀

Pada mobil modern, keselamatan diatur oleh fungsi berbasis AI seperti halnya logika dan perangkat lunak tradisional. Bagaimana fungsi-fungsi ini dapat dinilai kesalahannya untuk analisis FMEDA? Paul Cunningham (GM, Verifikasi di Cadence), Raúl Camposano (Silicon Catalyst, pengusaha, mantan CTO Synopsys dan sekarang Silvaco CTO) dan saya melanjutkan seri ide penelitian kami. Seperti biasa, masukan diterima.

Simulasi Kesalahan untuk Penilaian Keamanan AI

Inovasi

Pilihan bulan ini adalah SiFI-AI: Kerangka Simulasi Kesalahan RTL yang Cepat dan Fleksibel yang Disesuaikan untuk Model dan Akselerator AI. Artikel ini diterbitkan pada Simposium Great Lakes 2023 tentang VLSI. Penulisnya berasal dari Institut Teknologi Karlsruhe, Jerman.

ISO 26262 memerlukan analisis keselamatan berdasarkan metode FMEDA menggunakan simulasi kesalahan untuk menilai sensitivitas fungsi kritis terhadap kesalahan sementara dan sistematis, dan efektivitas logika mitigasi untuk mencegah kesalahan. Analisis dimulai dengan pemahaman ahli desain tentang perilaku tingkat tinggi apa yang harus dijamin bersama dengan kegagalan realistis apa yang mungkin menyebabkan kesalahan dalam perilaku tersebut.

Pengetahuan ahli ini sudah dipahami pada logika dan perangkat lunak konvensional, namun belum dipahami pada model AI (jaringan saraf) dan akselerator yang menjalankannya. Insinyur keselamatan memerlukan bantuan untuk mengeksplorasi mode kegagalan dan efek pada komponen AI untuk mengetahui di mana dan bagaimana kesalahan model dan perangkat keras. Lebih jauh lagi, analisis harus dijalankan dengan kecepatan praktis pada model besar yang umum untuk DNN. Para penulis mengusulkan teknik baru yang menurut mereka berjalan jauh lebih cepat dibandingkan metode saat ini.

pandangan Paulus

Makalah yang menggugah pikiran dan menarik: bagaimana Anda menilai risiko kesalahan perangkat keras acak pada akselerator AI yang digunakan untuk bantuan pengemudi atau penggerak otonom? Inferensi AI sendiri merupakan metode statistik, jadi menentukan hubungan antara bit flip acak di suatu tempat di akselerator dan inferensi yang salah bukanlah hal yang sepele.

Makalah ini mengusulkan untuk membangun sistem yang dapat "menukar" simulasi RTL nyata dari satu lapisan jaringan saraf, sebuah inferensi berbasis perangkat lunak murni dari jaringan tersebut di PyTorch. Kesalahan dapat dimasukkan ke dalam lapisan yang sedang disimulasikan RTL untuk menilai dampak kesalahan tersebut pada keseluruhan operasi inferensi.

Penulis mendemonstrasikan metode mereka pada akselerator AI sumber terbuka Gemmini yang menjalankan jaringan klasifikasi gambar ResNet-18 dan GoogLeNet. Mereka mengamati setiap elemen array akselerator Gemmini memiliki 3 register (aktivasi input, bobot dan jumlah parsial) dan sinyal pemilihan bobot, bersama-sama 4 kemungkinan jenis kesalahan untuk dimasukkan. Mereka menjalankan 1.5 juta eksperimen inferensi, masing-masing dengan kesalahan acak yang dimasukkan, memeriksa apakah klasifikasi 1 teratas di luar jaringan salah. Runtime mereka 7x lebih cepat dibandingkan pekerjaan sebelumnya, dan grafik mereka memvalidasi ekspektasi intuitif bahwa kesalahan pada lapisan awal jaringan lebih berdampak dibandingkan kesalahan pada lapisan yang lebih dalam.

Selain itu, jelas dari data mereka bahwa beberapa bentuk mekanisme keamanan perangkat keras (misalnya pemungutan suara tiga kali) diperlukan karena probabilitas absolut kesalahan klasifikasi peringkat 1 teratas adalah 2-8% untuk kesalahan pada 10 lapisan pertama jaringan. Itu terlalu tinggi untuk pengalaman berkendara yang aman!

Pandangan Raul

Kontribusi utama SiFI-AI adalah mensimulasikan kesalahan sementara pada akselerator DNN yang menggabungkan inferensi AI cepat dengan simulasi RTL akurat siklus dan injeksi kesalahan berbasis kondisi. Ini 7x lebih cepat dari yang canggih (referensi 2, Condia dkk, Menggabungkan Simulasi Arsitektur dan Injeksi Kesalahan Perangkat Lunak untuk Evaluasi Keandalan CNN yang Cepat dan Akurat pada GPU). Triknya adalah dengan hanya mensimulasikan apa yang diperlukan dalam RTL siklus lambat yang akurat. Kesalahan yang dimodelkan adalah gangguan peristiwa tunggal (SEU), yaitu pembalikan bit sementara yang disebabkan oleh efek eksternal seperti radiasi dan partikel bermuatan, yang bertahan hingga operasi penulisan berikutnya. Untuk mengetahui apakah satu kesalahan akan menyebabkan kesalahan sangatlah sulit dalam kasus ini; tingkat penggunaan kembali data yang tinggi dapat menyebabkan penyebaran kesalahan yang signifikan, dan simulasi kesalahan perlu mempertimbangkan arsitektur perangkat keras dan topologi model DNN.

SiFI-AI mengintegrasikan simulasi perangkat keras ke dalam kerangka ML (PyTorch). Untuk simulasi HW, ia menggunakan Verilator, simulator Verilog sumber terbuka dan gratis, untuk menghasilkan model RTL siklus yang akurat. Pengontrol kesalahan mengelola injeksi kesalahan seperti yang diarahkan oleh pengguna, menggunakan pendekatan berbasis kondisi, yaitu daftar kondisi yang menghindari kesalahan ditutup-tutupi. Untuk memilih bagian mana yang disimulasikan dalam RTL, ia menguraikan lapisan menjadi ubin yang lebih kecil berdasarkan “properti lapisan, strategi ubin loop, tata letak akselerator, dan kesalahan masing-masing” dan memilih ubin.

Perangkat yang diuji pada bagian eksperimental adalah Gemmini, akselerator DNN array sistolik yang dibuat di UC Berkeley dalam proyek Chipyard, dalam konfigurasi elemen pemrosesan (PE) 16×16. SiFI-AI melakukan studi ketahanan dengan eksperimen injeksi kesalahan 1.5 M pada dua beban kerja DNN umum, ResNet-18 dan GoogLeNet. Kesalahan dimasukkan ke dalam tiga register data PE dan satu sinyal kontrol, seperti yang ditentukan oleh pengguna. Hasil menunjukkan probabilitas kesalahan yang rendah, yang menegaskan ketahanan DNN. Mereka juga menunjukkan bahwa kesalahan sinyal kontrol memiliki dampak yang jauh lebih besar dibandingkan kesalahan sinyal data, dan bahwa lapisan yang lebar dan dangkal lebih rentan dibandingkan lapisan yang sempit dan dalam.

Ini adalah makalah bagus yang memajukan bidang evaluasi keandalan DNN. Makalah ini ditulis dengan baik dan jelas serta memberikan rincian dan referensi yang cukup untuk mendukung klaim dan hasil. Meskipun gagasan inti menggabungkan simulasi pada tingkat yang berbeda sudah lama, penulis menggunakannya dengan sangat efektif. Kerangka kerja seperti SciFI-AI dapat membantu desainer dan peneliti mengoptimalkan arsitektur mereka dan menjadikannya lebih tangguh. Saya juga menyukai analisis dampak patahan pada berbagai lapisan dan sinyal, yang mengungkap beberapa wawasan menarik. Makalah ini dapat diperbaiki dengan memberikan lebih banyak informasi tentang strategi injeksi kesalahan dan pemilihan ubin. Meskipun topiknya cukup spesifik, secara keseluruhan, makalah ini sangat menyenangkan!

Bagikan postingan ini melalui:

tempat_img

Intelijen Terbaru

tempat_img