Zephyrnet Logosu

Düzenleyici Yapay Zeka: Uzmanlar Doğruyu Bulmanın Neden Zor (Ama Önemli) Olduğunu Açıklıyor

Tarih:

Konum sahte fotoğraflar Donald Trump'ın New York Şehri polis memurları tarafından bir sohbet botuna tutuklanması trajik bir şekilde ölmüş olarak çok canlı bir bilgisayar bilimcisi, yeni nesil üretken yapay zeka sistemlerinin ikna edici ancak kurgusal metin ve görüntüler oluşturma yeteneği, dolandırıcılık ve steroidlerdeki yanlış bilgilendirme konusunda alarm veriyor. Gerçekten de, bir grup yapay zeka araştırmacısı ve sektör figürü, 22 Mart 2023'te sektörü şu çağrıda bulundu: ileri eğitimi duraklat en son AI teknolojilerinden veya bunu engellemek için hükümetler için "bir moratoryum uygulamak".

Bu teknolojiler – gibi görüntü üreteçleri DALL-E, yolculuk ve Kararlı Difüzyonve gibi metin üreteçleri ozan, ChatGPT, çinçilla ve aramalar – artık milyonlarca kişi tarafından kullanılabilir ve kullanmak için teknik bilgi gerektirmez.

Teknoloji şirketlerinin bu AI sistemlerini piyasaya sürmesi ve halk üzerinde test etmesi nedeniyle yaygın zarar potansiyeli göz önüne alındığında, politika yapıcılar, ortaya çıkan teknolojiyi düzenleyip düzenlemeyeceklerini ve nasıl düzenleyeceklerini belirleme görevi ile karşı karşıyadır. Konuşma teknoloji politikası konusunda üç uzmandan yapay zekayı düzenlemenin neden bu kadar zor olduğunu ve bunu doğru yapmanın neden bu kadar önemli olduğunu açıklamasını istedi.


İnsan zaafları ve hareketli bir hedef

S. Shyam Sundar

Yapay zekayı düzenlemenin nedeni, teknolojinin kontrolden çıkması değil, insan hayal gücünün orantısız olmasıdır. Fışkıran medya kapsamı alevlendi AI'nın yetenekleri ve bilinci hakkında irrasyonel inançlar. Bu tür inançlar “otomasyon yanlılığı” veya makineler bir görevi yerine getirirken gardınızı indirme eğilimi. Bir örnek pilotlar arasında azaltılmış uyanıklık uçakları otomatik pilotta uçarken.

Laboratuvarımdaki çok sayıda çalışma, bir etkileşim kaynağı olarak bir insan yerine bir makine tanımlandığında, kullanıcıların zihninde “zihinsel kısayol” dediğimiz bir zihinsel kısayolu tetiklediğini göstermiştir.makine buluşsal” Bu kısayol, makinelerin doğru, nesnel, tarafsız, yanılmaz vb. olduğu inancıdır. Kullanıcının yargısını bulanıklaştırır ve kullanıcının makinelere aşırı derecede güvenmesine neden olur. Bununla birlikte, insanları yapay zekanın yanılmazlığından basitçe vazgeçirmek yeterli değildir çünkü insanların, teknoloji bunu garanti etmese bile bilinçsizce yetkinliğe sahip oldukları bilinmektedir.

Araştırma ayrıca şunu göstermiştir: insanlar bilgisayarları sosyal varlıklar olarak görüyor makineler, konuşma dilinin kullanımı gibi en ufak bir insanlık belirtisi gösterdiğinde. Bu durumlarda, insanlar nezaket ve karşılıklılık gibi insan etkileşiminin sosyal kurallarını uygular. Bu nedenle, bilgisayarlar duyarlı göründüğünde, insanlar onlara körü körüne güvenme eğilimindedir. Yapay zeka ürünlerinin bu güveni hak etmesini ve bundan yararlanmamasını sağlamak için düzenlemeye ihtiyaç vardır.

Yapay zeka benzersiz bir zorluk teşkil ediyor çünkü geleneksel mühendislik sistemlerinden farklı olarak tasarımcılar yapay zeka sistemlerinin nasıl davranacağından emin olamıyor. Geleneksel bir otomobil fabrikadan çıkarıldığında, mühendisler onun nasıl çalışacağını tam olarak biliyorlardı. Ancak kendi kendine giden arabalarla, mühendisler nasıl yapacaklarından asla emin olamazlar. yeni durumlarda performans gösterecek.

Son zamanlarda dünyanın dört bir yanındaki binlerce insan, GPT-4 ve DALL-E 2 gibi büyük üretken yapay zeka modellerinin istemlerine yanıt olarak ürettiklerine hayret ediyor. Bu yapay zeka modellerini geliştirmeye dahil olan mühendislerin hiçbiri size modellerin tam olarak ne üreteceğini söyleyemez. Sorunları karmaşık hale getirmek için, bu tür modeller daha fazla etkileşimle değişir ve gelişir.

Bütün bunlar, tekleme için çok fazla potansiyel olduğu anlamına gelir. Bu nedenle, birçok şey yapay zeka sistemlerinin nasıl konuşlandırıldığına ve insan duyarlılıkları veya refahı zarar gördüğünde başvuru için hangi hükümlerin yürürlükte olduğuna bağlıdır. AI daha çok bir otoyol gibi bir altyapıdır. Kolektifteki insan davranışlarını şekillendirmek için tasarlayabilirsiniz, ancak hız gibi suistimallerle ve kazalar gibi öngörülemeyen olaylarla mücadele etmek için mekanizmalara ihtiyacınız olacaktır.

Yapay zeka geliştiricilerinin ayrıca, sistemin nasıl davranacağını tasavvur etme ve sosyal standartların ve sorumlulukların potansiyel ihlallerini tahmin etme konusunda aşırı derecede yaratıcı olmaları gerekecektir. Bu, AI'nın sonuçlarının ve ürünlerinin periyodik denetimlerine ve polisliğine dayanan düzenleyici veya yönetişim çerçevelerine ihtiyaç olduğu anlamına gelir, ancak bu çerçevelerin, sistem tasarımcılarının aksiliklerden her zaman sorumlu tutulamayacağını da kabul etmesi gerektiğine inanıyorum.


'Yumuşak' ve 'sert' yaklaşımları birleştirmek

Cason Schmit

Yapay zekayı düzenlemek zordur. Yapay zekayı iyi bir şekilde düzenlemek için önce yapay zekayı tanımlamalı ve beklenen yapay zeka risklerini ve faydalarını anlamalısınız. AI'yı yasal olarak tanımlamak, neyin yasaya tabi olduğunu belirlemek için önemlidir. Ancak AI teknolojileri hala gelişiyor, bu nedenle istikrarlı bir yasal tanım bulmak zor.

Yapay zekanın risklerini ve faydalarını anlamak da önemlidir. İyi düzenlemeler kamu yararını maksimize ederken aynı zamanda riskleri minimize etmek. Bununla birlikte, AI uygulamaları hala gelişmektedir, bu nedenle gelecekteki risklerin veya faydaların neler olabileceğini bilmek veya tahmin etmek zordur. Bu tür bilinmeyenler, yapay zeka gibi gelişmekte olan teknolojileri son derece önemli hale getiriyor. düzenlenmesi zor geleneksel yasa ve yönetmeliklerle.

Milletvekilleri genellikle uyum sağlamak için çok yavaş hızla değişen teknolojik çevreye. Bazı yeni kanunlar yürürlüğe girdiklerinde geçerliliğini yitirirler ve hatta tanıttı. Yeni yasalar olmadan, düzenleyiciler eski kanunları kullanmak zorunda adrese yeni problemler. Bazen bu yol açar yasal engeller için sosyal yardımlar or yasal boşluklar için zararlı davranış.

"Esnek yasalar”, belirli ihlalleri önlemeyi amaçlayan mevzuatın geleneksel “katı kanun” yaklaşımlarına alternatiftir. Yumuşak hukuk yaklaşımında, özel bir kuruluş belirli kurallar veya standartlar endüstri üyeleri için. Bunlar, geleneksel kanun yapımından daha hızlı değişebilir. Bu yapar yumuşak yasalar umut verici yeni uygulamalara ve risklere hızla uyum sağlayabildikleri için gelişmekte olan teknolojiler için. Fakat, yumuşak kanunlar yumuşak uygulama anlamına gelebilir.

megan doerr, Jennifer Wagnerve üçüncü bir yol öneriyorum: Güvenilir Uygulamaya (CAITE) sahip Copyleft AI. Bu yaklaşım, fikri mülkiyette çok farklı iki kavramı birleştirir: telif hakkı lisanslama ve patent trolleri.

Copyleft lisanslama, içeriğin bir lisans (örneğin, açık kaynaklı yazılım) koşulları altında kolayca kullanılmasına, yeniden kullanılmasına veya değiştirilmesine izin verir. CAITE modeli, AI kullanıcılarının önyargı etkisinin şeffaf değerlendirmeleri gibi belirli etik yönergeleri izlemesini zorunlu kılmak için copyleft lisansları kullanır.

Modelimizde, bu lisanslar aynı zamanda lisans ihlallerini uygulamak için yasal hakkı güvenilir bir üçüncü tarafa devreder. Bu, yalnızca etik yapay zeka standartlarını uygulamak için var olan ve kısmen etik olmayan davranışlardan kaynaklanan para cezalarıyla finanse edilebilen bir uygulama birimi oluşturur. Bu varlık, hükümetten ziyade özel olması ve başkalarından topladığı yasal fikri mülkiyet haklarını uygulayarak kendisini desteklemesi açısından bir patent trolü gibidir. Bu durumda işletme, kâr amacı gütmek yerine, lisanslarda tanımlanan etik yönergeleri uygular - "iyilik için troll".

Bu model esnektir ve değişen yapay zeka ortamının ihtiyaçlarını karşılamak için uyarlanabilir. Aynı zamanda, geleneksel bir devlet düzenleyicisi gibi önemli uygulama seçenekleri sağlar. Bu şekilde, yapay zekanın benzersiz zorluklarını karşılamak için katı ve esnek hukuk yaklaşımlarının en iyi unsurlarını birleştirir.


Sorulacak dört anahtar soru

John Villasenor

The olağanüstü son gelişmeler büyük dilde model tabanlı üretken yapay zeka, yapay zekaya özgü yeni düzenleme oluşturmak için çağrıları teşvik ediyor. Diyalog ilerledikçe sorulacak dört temel soru şunlardır:

1) AI'ya özgü yeni düzenleme gerekli mi? Yapay zeka sistemlerinden kaynaklanan potansiyel olarak sorunlu sonuçların çoğu, halihazırda mevcut çerçeveler tarafından ele alınmaktadır. Bir banka tarafından kredi başvurularını değerlendirmek için kullanılan bir AI algoritması, ırksal olarak ayrımcı kredi kararlarına yol açarsa, bu, Adil Konut Yasasını ihlal eder. Sürücüsüz bir arabadaki AI yazılımı bir kazaya neden olursa, ürün sorumluluk yasası çareleri takip etmek için çerçeve.

2) Zamanın anlık görüntüsüne dayalı olarak hızla değişen bir teknolojiyi düzenlemenin riskleri nelerdir? Bunun klasik bir örneği, Saklanan İletişim Yasasıe-posta gibi o zamanlar yeni olan dijital iletişim teknolojilerini ele almak için 1986 yılında yürürlüğe girmiştir. Kongre, SCA'yı yürürlüğe koyarken, 180 günden eski e-postalar için önemli ölçüde daha az gizlilik koruması sağladı.

Mantık, sınırlı depolama alanının, insanların yenilerine yer açmak için eski iletileri silerek sürekli olarak gelen kutularını temizlemesi anlamına geliyordu. Sonuç olarak, 180 günden fazla saklanan mesajlar, gizlilik açısından daha az önemli kabul edildi. Bu mantığın hiçbir zaman mantıklı olup olmadığı net değil ve e-postalarımızın ve depolanan diğer dijital iletişimlerimizin çoğunun altı aydan eski olduğu 2020'lerde kesinlikle mantıklı değil.

Zaman içinde tek bir anlık görüntüye dayalı olarak teknolojinin düzenlenmesine ilişkin endişelere verilen ortak yanıt şudur: Bir yasa veya düzenleme güncelliğini yitirirse, güncelleyin. Ancak bunu söylemek yapmaktan daha kolay. Çoğu insan, SCA'nın onlarca yıl önce modası geçmiş olduğu konusunda hemfikirdir. Ancak Kongre, 180 günlük hükmün nasıl revize edileceği konusunda tam olarak anlaşamadığı için, yürürlüğe girmesinden bu yana üçte bir asırdan fazla bir süre geçmesine rağmen hala kayıtlarda.

3) Olası istenmeyen sonuçlar nelerdir? bu Devletlerin ve Mağdurların 2017 Çevrimiçi Seks Ticareti Yasası ile Mücadele Etmesine İzin Verin 2018'de revize edilen bir yasa çıktı Bölüm 230 Seks kaçakçılığıyla mücadele amacıyla İletişim Ahlakı Yasası. Seks ticaretini azalttığına dair çok az kanıt olsa da, son derece sorunlu etki farklı bir grup insan üzerinde: tehlikeli müşteriler hakkında bilgi alışverişinde bulunmak için FOSTA-SESTA tarafından devre dışı bırakılan web sitelerine güvenen seks işçileri. Bu örnek, önerilen düzenlemelerin potansiyel etkilerine geniş bir açıdan bakmanın önemini göstermektedir.

4) Ekonomik ve jeopolitik çıkarımlar nelerdir? Amerika Birleşik Devletleri'ndeki düzenleyiciler, yapay zekadaki ilerlemeyi kasıtlı olarak yavaşlatmak için hareket ederse, bu, yatırımı ve yeniliği - ve bunun sonucunda iş yaratmayı - başka yerlere itecektir. Gelişmekte olan yapay zeka pek çok endişeyi gündeme getirirken, eğitim gibi alanlarda da muazzam faydalar sağlamayı vaat ediyor. tıp, üretim, ulaşım güvenliği, tarım, hava Durumu tahmini, yasal hizmetlere erişim, ve daha fazlası.

Yukarıdaki dört soru göz önünde bulundurularak hazırlanan AI düzenlemelerinin, AI'nın potansiyel zararlarını başarılı bir şekilde ele alırken, aynı zamanda faydalarına erişimi de sağlayacağına inanıyorum.


Bu makale şu adresten yeniden yayınlandı: Konuşma Creative Commons lisansı altında. Okumak Orijinal makale by S. Shyam Sundar, James P. Jimirro Medya Etkileri Profesörü, Yardımcı Direktör, Medya Etkileri Araştırma Laboratuvarı ve Direktör, Sosyal Sorumlu Yapay Zeka Merkezi, Penn State; Cason Schmit, Halk Sağlığı Yardımcı Doçenti, Teksas A & M Üniversitesi, ve John Villasenor, Elektrik Mühendisliği, Hukuk, Kamu Politikası ve Yönetimi Profesörü, University of California, Los Angeles.

spot_img

En Son İstihbarat

spot_img