Zephyrnet Logosu

Kâr amacı gütmeyen kuruluş, artan yapay zeka kazalarını takip etmek için site kuruyor

Tarih:

görüşme Yanlış görüntüleri Uydurma Siyah seçmenler, kadın sınıf arkadaşlarının pornografik deepfake'lerini oluşturan ortaokul öğrencileri ve Google'ın Gemini sohbet robotu tarafından desteklenen Donald Trump'ın hikayesi başarısız Beyazların resimlerini doğru bir şekilde oluşturmak için.

Bunlar listede yer alan son felaketlerden bazıları. AI Olay Veritabanı – teknolojinin yanlış gittiği tüm farklı yolları takip eden bir web sitesi.

Başlangıçta, AI'nın topluma fayda sağlamasını sağlamaya çalışan bir grup olan Partnership On AI'nın himayesinde bir proje olarak başlatılan AI Olay Veritabanı, artık en büyük ve en eski (tahmini 1894) bağımsız olan Underwriters Laboratories tarafından finanse edilen kar amacı gütmeyen bir kuruluştur. Amerika Birleşik Devletleri'ndeki test laboratuvarı. Mobilyalardan bilgisayar farelerine kadar her türlü ürünü test ediyor ve web sitesi şu ana kadar 600'den fazla benzersiz otomasyon ve yapay zeka ile ilgili olayı katalogladı.

George Washington Üniversitesi İşletme Fakültesi'nde yardımcı doçent olan ve şu anda Yapay Zeka Olay Veri Tabanı Yönetim Kurulu'nda görev yapan Patrick Hall, "Yapay zeka sistemlerinin yaratıcıları ile kamu tüketicileri arasında büyük bir bilgi asimetrisi var ve bu adil değil" dedi. . Söyledi Kayıt: "Daha fazla şeffaflığa ihtiyacımız var ve işimizin sadece bu bilgiyi paylaşmak olduğunu düşünüyoruz."

Yapay Zeka Olay Veritabanı, kar amacı gütmeyen kuruluş tarafından kurulan CVE Programı temel alınarak modellenmiştir. MITREYa da Ulusal Karayolu Taşımacılığı Güvenliği İdaresi Web sitesi, kamuya açıklanan siber güvenlik açıklarını ve araç kazalarını rapor ediyor. "Ne zaman bir uçak kazası, tren kazası ya da büyük bir siber güvenlik olayı yaşansa, neyin yanlış gittiğini anlayıp tekrarlamamak için olanları kaydetmek onlarca yıldır yaygın bir uygulama haline geldi."

Web sitesi şu anda yaklaşık on kişinin yanı sıra yapay zeka ile ilgili olayları inceleyip çevrimiçi olarak yayınlayan bir avuç gönüllü ve yüklenici tarafından yönetiliyor. Heather Frase, Georgetown's'da kıdemli bir araştırmacı Güvenlik ve Gelişen Teknoloji Merkezi Yapay Zeka Değerlendirmesi ve Yapay Zeka Olay Veri Tabanı yöneticisine odaklanan şirket, web sitesinin yalnızca yazılımdaki güvenlik açıkları ve hatalara değil, yapay zekanın riskleri ve zararlarından kaynaklanan gerçek dünyadaki etkilere odaklanması açısından benzersiz olduğunu iddia etti.

Kuruluş şu anda medyadaki haberlerden olayları topluyor ve Twitter'da kişiler tarafından bildirilen sorunları inceliyor. Yapay Zeka Olay Veritabanı, ChatGPT'nin Kasım 250'de yayınlanmasından önce 2022 benzersiz olayı kaydetti ve şu anda 600'den fazla benzersiz olayı listeliyor.

Yapay zeka ile ilgili sorunların zaman içinde izlenmesi ilginç eğilimleri ortaya çıkarır ve insanların teknolojinin gerçek, mevcut zararlarını anlamalarına olanak sağlayabilir.

George Washington Üniversitesi Salonu, veritabanındaki raporların yaklaşık yarısının üretken yapay zeka ile ilgili olduğunu ortaya çıkardı. Bazıları "komik, aptalca şeyler" gibi tehlikeli ürünler Amazon'da "Bu isteği yerine getiremiyorum" başlıklı bir ürün satıldı; satıcının açıklama yazmak için geniş bir dil modeli kullandığının açık bir işareti veya yapay zeka tarafından oluşturulan diğer spam örnekleri. Ancak bazıları "gerçekten moral bozucu ve ciddi"; tıpkı San Francisco'daki bir kazada bir Cruise robotaksinin üzerinden geçip bir kadını tekerlekleri altına alması gibi.

"Yapay zeka şu anda çoğunlukla vahşi batıda ve tutum hızlı gitmek ve işleri bozmaktır" diye yakındı. Teknolojinin toplumu nasıl şekillendirdiği açık değil ve ekip, AI Olay Veri Tabanının, bunun kötüye kullanılma biçimlerine ilişkin bilgiler sunabileceğini ve istenmeyen sonuçları vurgulayabileceğini umuyor; geliştiricilerin ve politika yapıcıların daha iyi bilgilendirilmesi ve böylece modellerini geliştirebilmeleri veya düzenleme yapabilmeleri umuduyla en acil riskler.

“Etrafta çok fazla heyecan var. İnsanlar varoluşsal riskten bahsediyor. Yapay zekanın insan uygarlığı için çok ciddi riskler oluşturabileceğine eminim, ancak bana göre bu daha gerçek dünya risklerinden bazılarının - sürücüsüz arabalarla ilişkili çok sayıda yaralanma veya, biliyorsunuz, kullanılan algoritmalar yoluyla önyargının sürdürülmesi gibi - Tüketici finansmanı veya istihdamda. Gördüğümüz şey bu."

"Çok şey kaçırdığımızı biliyorum değil mi? Her şey medya tarafından bildirilmiyor veya kaydedilmiyor. Çoğu zaman insanlar yaşadıkları zararın bir yapay zekadan geldiğinin farkına bile varmayabilirler," diye gözlemledi Frase. “Fiziksel zararın çok artmasını bekliyorum. Büyük dil modellerinden [çoğunlukla] psikolojik zararlar ve diğer maddi olmayan zararlar geldiğini görüyoruz; ancak üretken robotiğe sahip olduğumuzda, fiziksel zararın çok artacağını düşünüyorum."

Frase en çok yapay zekanın insan haklarını ve sivil özgürlükleri nasıl aşındırabileceği konusunda endişeli. Yapay zeka olaylarını toplamanın, politikaların teknolojiyi zamanla daha güvenli hale getirip getirmediğini göstereceğine inanıyor.

Hall, "Bir şeyleri düzeltmek için bir şeyleri ölçmelisiniz" diye ekledi.

Kuruluş her zaman gönüllü arıyor ve şu anda daha fazla olayı yakalamaya ve farkındalığı artırmaya odaklanıyor. Frase, grup üyelerinin yapay zeka meraklıları olmadığını vurguladı: “Muhtemelen oldukça yapay zeka karşıtı gibi görünüyoruz, ancak değiliz. Aslında bunu kullanmak istiyoruz. Biz sadece iyi olanı istiyoruz."

Hall kabul etti. "Teknolojinin bir nevi ilerlemesini sağlamak için birinin onu daha güvenli hale getirecek işi yapması gerekiyor" dedi. ®

spot_img

En Son İstihbarat

spot_img