Logo Zephyrnet

Organisasi nirlaba membangun situs untuk melacak lonjakan kecelakaan AI

Tanggal:

Wawancara Salah gambar Donald Trump didukung oleh pemilih kulit hitam yang dibuat-buat, siswa sekolah menengah yang membuat video palsu pornografi tentang teman sekelas perempuan mereka, dan chatbot Gemini dari Google kegagalan untuk menghasilkan gambar orang kulit putih secara akurat.

Ini adalah beberapa bencana terbaru yang tercantum di Database Insiden AI – sebuah situs web yang mengawasi berbagai kemungkinan kesalahan teknologi.

Awalnya diluncurkan sebagai proyek di bawah naungan Partnership On AI, sebuah kelompok yang mencoba memastikan AI bermanfaat bagi masyarakat, AI Incident Database kini menjadi organisasi nirlaba yang didanai oleh Underwriters Laboratories – yang terbesar dan tertua (perkiraan tahun 1894) independen. laboratorium pengujian di Amerika Serikat. Perusahaan ini menguji semua jenis produk – mulai dari furnitur hingga mouse komputer – dan situs webnya sejauh ini telah mengkatalogkan lebih dari 600 otomatisasi unik dan insiden terkait AI.

“Ada asimetri informasi yang sangat besar antara pembuat sistem AI dan konsumen publik – dan itu tidak adil”, kata Patrick Hall, asisten profesor di George Washington University School of Business, yang saat ini menjabat di Dewan Direksi AI Incident Database . Dia bilang Pendaftaran: “Kami memerlukan transparansi yang lebih besar, dan kami merasa tugas kami hanyalah membagikan informasi tersebut.”

Basis Data Insiden AI dimodelkan pada Program CVE yang didirikan oleh organisasi nirlaba GELAR USKUP, Atau Administrasi Keselamatan Transportasi Jalan Raya Nasional pelaporan situs web yang mengungkapkan secara publik kerentanan keamanan siber dan kecelakaan kendaraan. “Setiap kali terjadi kecelakaan pesawat, kecelakaan kereta api, atau insiden keamanan siber yang besar, sudah menjadi praktik umum selama beberapa dekade untuk mencatat apa yang terjadi sehingga kita dapat mencoba memahami apa yang salah dan tidak mengulanginya lagi.”

Situs web tersebut saat ini dikelola oleh sekitar sepuluh orang, ditambah beberapa relawan dan kontraktor yang meninjau dan memposting insiden terkait AI secara online. Heather Frase, rekan senior di Georgetown's Pusat Keamanan dan Teknologi Berkembang berfokus pada Penilaian AI dan direktur Basis Data Insiden AI, mengklaim bahwa situs web ini unik karena berfokus pada dampak dunia nyata dari risiko dan bahaya AI – bukan hanya kerentanan dan bug dalam perangkat lunak.

Organisasi tersebut saat ini mengumpulkan insiden dari liputan media dan mengulas masalah yang dilaporkan oleh orang-orang di Twitter. Basis Data Insiden AI mencatat 250 insiden unik sebelum ChatGPT dirilis pada November 2022, dan kini mencantumkan lebih dari 600 insiden unik.

Pemantauan permasalahan AI dari waktu ke waktu mengungkap tren yang menarik, dan memungkinkan masyarakat memahami dampak nyata yang ditimbulkan oleh teknologi saat ini.

Aula Universitas George Washington mengungkapkan bahwa sekitar setengah dari laporan dalam database terkait dengan AI generatif. Beberapa di antaranya seperti “hal-hal yang lucu dan konyol”. produk yang cerdik dijual di Amazon dengan judul: “Saya tidak dapat memenuhi permintaan itu” – sebuah tanda yang jelas bahwa penjual menggunakan model bahasa yang besar untuk menulis deskripsi – atau contoh spam lain yang dihasilkan oleh AI. Namun ada juga yang “sangat menyedihkan dan serius” – seperti robotaxi kapal pesiar yang menabrak dan menyeret seorang wanita ke bawah kemudinya dalam sebuah kecelakaan di San Francisco.

“AI saat ini sebagian besar merupakan hal yang liar, dan sikapnya adalah bergerak cepat dan menghancurkan banyak hal,” keluhnya. Masih belum jelas bagaimana teknologi ini mempengaruhi masyarakat, dan tim berharap AI Incident Database dapat memberikan wawasan tentang penyalahgunaan teknologi dan menyoroti konsekuensi yang tidak diinginkan – dengan harapan pengembang dan pembuat kebijakan mendapat informasi yang lebih baik sehingga mereka dapat meningkatkan model atau mengaturnya. risiko yang paling mendesak.

“Ada banyak hype yang beredar. Orang-orang berbicara tentang risiko eksistensial. Saya yakin bahwa AI dapat menimbulkan risiko yang sangat parah terhadap peradaban manusia, namun jelas bagi saya bahwa beberapa risiko yang lebih nyata – seperti banyak cedera yang terkait dengan mobil yang dapat mengemudi sendiri atau, Anda tahu, melanggengkan bias melalui algoritma yang digunakan dalam pembiayaan konsumen atau pekerjaan. Itulah yang kami lihat.”

“Aku tahu kita kehilangan banyak hal, bukan? Tidak semuanya diberitakan atau ditangkap oleh media. Seringkali orang tidak menyadari bahwa kerugian yang mereka alami berasal dari AI,” kata Frase. “Saya memperkirakan cedera fisik akan meningkat pesat. Kami melihat [kebanyakan] kerugian psikologis dan kerugian tidak berwujud lainnya terjadi dari model bahasa besar – namun begitu kita memiliki robot generatif, saya pikir kerugian fisik akan meningkat pesat.”

Frase sangat prihatin dengan dampak AI yang dapat mengikis hak asasi manusia dan kebebasan sipil. Dia percaya bahwa mengumpulkan insiden AI akan menunjukkan apakah kebijakan telah membuat teknologi lebih aman dari waktu ke waktu.

“Anda harus mengukur sesuatu untuk memperbaikinya,” tambah Hall.

Organisasi ini selalu mencari sukarelawan dan saat ini fokus untuk menangkap lebih banyak insiden dan meningkatkan kesadaran. Frase menekankan bahwa anggota kelompok tersebut bukanlah orang-orang yang menyukai AI: “Kami mungkin dianggap anti-AI, namun sebenarnya tidak. Kami sebenarnya ingin menggunakannya. Kami hanya menginginkan hal-hal yang bagus.”

Hall setuju. “Agar teknologi tetap maju, seseorang harus melakukan upaya untuk membuatnya lebih aman,” katanya. ®

tempat_img

Intelijen Terbaru

tempat_img