Zephyrnet Logosu

Üst düzey yapay zeka sektörü yöneticileri, ABD hükümetinin düzenlemesini memnuniyetle karşılıyor

Tarih:

Salı günü yapılan bir duruşmada senatörler tarafından sorgulanan yapay zeka uzmanları, daha geniş gerçek dünya konuşlandırmalarından önce teknolojiyi düzenlemek için yasaların gerekli olduğu konusunda anlaştılar.

OpenAI CEO'su Sam Altman söyledi Yargı Üzerine Senato Komitesi, ABD hükümetinin, şirketlerin belirli bir eşiğin ötesinde gelişmiş yeteneklere sahip yapay zeka modelleri oluşturmak için bir lisans almasını gerektirecek kuralları uygulamayı düşünmesi gerektiğini söyledi. 

Altman bu eşiğe basıldığında şu yanıtı verdi: "Bence bir kişinin davranışını veya bir kişinin inançlarını ikna edebilen, manipüle edebilen veya etkileyebilen bir model - bu iyi bir eşik olur. Yeni biyolojik ajanlar yaratmaya yardımcı olabilecek bir modelin büyük bir eşik olacağını düşünüyorum - bunun gibi şeyler."

New York Üniversitesi'nde emekli bir psikoloji ve sinir bilimi profesörü ve Robust AI ve Geometrik Zeka (sonuncusu Uber tarafından satın alındığından beri) girişimlerinin kurucusu Gary Marcus, sohbet robotlarının insanları yanlış bilgilere inanmaları veya zararlı ve riskli davranışlar

Marcus, ChatGPT'nin dahil olduğu bir olaya işaret etti. yanlış suçlanan cinsel taciz hukuk profesörü. Ve bir diğeri Snapchat'in yapay zekası olduğunda görünüşe göre tavsiye 13 yaşındaki bir kızın, 31 yaşındaki bir adamla görüşmesi hakkında ailesine yalan söylemesi.

Bu tür yanıtların mümkün olmasının nedeni, yapay zekanın dilbilgisi hatalarından arınmış tutarlı metinler üretebilmesine rağmen, dili anlamadığını belirtti. Neyin gerçek neyin gerçek olmadığını bilmiyor. Üretken yapay zeka bu nedenle genellikle gerçekleri üretir ve uygun olmayan tepkiler üretir.

Yine de insanlar bilgi almak için yapay zeka sohbet botlarına giderek daha fazla yöneliyor - ki bu, yanlış bilgilerin yayılmasına neden olursa bariz dezavantajlara sahip.

“Bu ne kadar çok olursa, herhangi biri bir şeyi o kadar çok inkar edebilir. Tanınmış bir avukatın Cuma günü bana söylediği gibi, sanıklar davacıların meşru deliller uydurduklarını iddia etmeye başlıyor. Bu tür iddialar, jürilerin neye veya kime inanacaklarına karar verme yeteneklerini baltalıyor ve demokrasinin altını oymaya katkıda bulunuyor" dedi.

IBM'in baş gizlilik ve güven yetkilisi Christine Montgomery, Kongre'yi, yeniliği kısıtlayabilecek geniş kapsamlı politikalar yerine belirli kullanım durumlarında yapay zekanın konuşlandırılmasını yönetecek kurallar oluşturmaya çağırdı. ABD hükümetinin "farklı riskler için farklı kurallar" uygulamasını önerdi.

“İnsanlar ve toplum için en büyük riskleri taşıyan durumları kullanmak için en güçlü düzenleme uygulanmalıdır … Doğası gereği yüksek riskli olan AI kullanımları veya AI destekli faaliyet kategorileri hakkında net bir kılavuz olmalıdır. Bu ortak tanım, farklı kullanım durumlarında ve bağlamlarında hangi yasal gerekliliklerin uygulanacağının net bir şekilde anlaşılmasını sağlamanın anahtarıdır" dedi.

AI'yı kim düzenlemeli?

Gizlilik, Teknoloji ve Hukuk Alt Komitesinin duruşmasına liderlik eden senatörler ve üç davetli konuşmacı, yapay zekayı düzenlemeye ve denetlemeye odaklanan bir kurum oluşturma fikrini büyük ölçüde desteklediler. Ancak, düzenleyici olarak kimin hareket etmesi gerektiği konusunda anlaşamadılar.

Marcus, araştırmacılardan oluşan tarafsız bir uluslararası örgüte ihtiyaç duyulabileceğini söyledi. Bazı senatörler ve OpenAI CEO'su Altman, uzmanlaşmış bir federal ajans kurmaktan bahsetti. Altman, ajansın şirketlere güvenlik korkulukları olan modeller yapmalarına izin veren lisansları vermekten sorumlu olabileceğini ve model yapımcılarının kuralları çiğnemesi durumunda lisansları iptal etme yetkisine sahip olacağını söyledi.

John Kennedy (R-LA), Altman'a kendisinin böyle bir gruba liderlik etmeye yetkili olup olmadığını soracak kadar ileri gitti. "Mevcut işimi seviyorum," diye yanıtladı. 

Bununla birlikte, Josh Hawley (R-MO), devlet kurumlarından çok yasal düzenlemeyi yönlendiren davadan yana görünüyor. “Bu hükümette ajansların nasıl çalıştığını gördükten sonra, genellikle düzenlemeleri gereken çıkarların esiri oluyorlar. Genellikle izlemeleri gereken kişiler tarafından kontrol ediliyorlar” diye yakındı.

“Farklı bir fikrim var. Neden insanların seni dava etmesine izin vermiyoruz? Neden sizi sorumlu tutmuyoruz … bu teknolojiden zarar gören özel kişilerin mahkemeye gitmesine ve mahkemeye delil getirmesine izin verecek federal bir dava hakkı oluşturabiliriz. Ve herhangi biri olabilir, ”diye devam etti.

Hawley, yapay zekadan zarar gören tüketicilerin teknolojiyi geliştiren şirketlere karşı toplu davalar açmasını kolaylaştırmak istediğini söyledi - tıbbi veya seçimle ilgili yanlış bilgi üretmek gibi zararlar önerdi.

Ancak Marcus aynı fikirde değildi. Hukuk sisteminin teknolojiyi etkili bir şekilde düzenlemek için çok yavaş hareket ettiğini savundu. Mevcut yasaların, AI'nın telif hakkı, yanlış bilgi gibi güncel sorunlar üzerindeki etkisiyle başa çıkıp çıkamayacağının veya şirketlerin chatbot'ların söylediklerinden sorumlu tutulup tutulamayacağı veya yayıncıları içerik yükümlülüğünden muaf tutan ABD yasaları kapsamında korunup korunmadığının belirsiz olduğunu da sözlerine ekledi. barındırırlar ancak üçüncü şahıslar tarafından oluşturulmuşlardır.

“Hangi yasaların geçerli olduğunu gerçekten bilmediğimiz pek çok durumla karşılaşıyoruz. Boşluklar olacak – sistem gerçekten iyi düşünülmemiş” dedi.

Montgomery, ABD hükümetinin işleri kontrol etme yeteneği konusunda daha iyimserdi ve mevcut düzenleyicilerin mevcut endişeleri giderebileceğine olan inancını dile getirdi. “Şu anda gerçek riskleri ele almak için düzenlemeyi yavaşlatmak istemediğimizi düşünüyorum. Kendi alanlarında düzenleme yapma yeteneğine sahip oldukları konusunda net olan mevcut düzenleyici makamlarımız var."

Son birkaç ayda, Federal Ticaret Komisyonu ve Adalet Bakanlığı gibi kurumlar sert ifadeler içeren açıklamalar yayınladılar. uyarı medeni hakları ve tüketiciyi koruma yasalarını ihlal eden AI şirketlerine baskı yapacaklarını. 

Rekabet ve veriler

Son teknoloji yapay zeka sistemlerini geliştirmek zordur ve önemli, pahalı ve kıt donanım kaynakları gerektirir.

Birçok uzman, teknolojinin tekeller kuran dev şirketler tarafından kontrol edileceğinden endişe ediyor. Altman, geliştiricilerin harika bir açık kaynak teknolojisi oluşturduklarını, ancak genellikle rekabetçi modeller oluşturamayacaklarını kabul etti. Yalnızca birkaç büyük oyuncu varsa, yapay zekayı düzenlemenin daha kolay olacağını söyledi - ancak gücün yoğunlaşmasının olumsuz tarafları da var.

“Az sayıda şirketin bu sistemlerin doğası gereği insanların inançlarını etkilediği, oligarşi ile birleşmiş bir tür teknik teknokrasi riski var… [Onlar] inançlarımızı ince bir şekilde şekillendirebilir ve hayatlarımızı nasıl yaşadığımız ve sahip olduğumuz şeyler üzerinde muazzam bir etkiye sahip olabilir. az sayıda oyuncu bunu bizim bile bilmediğimiz verilerle yapıyor. Bu beni korkutuyor, dedi Marcus. 

Yapay zeka modellerini eğitmek için kullanılan veriler, yapay zekanın yeteneklerini, performansını ve davranışını büyük ölçüde etkiler. Politika yapıcılar önerilen modeli anlamak ve kullanılan veri kümelerinin yüksek kalitede olmasını ve telif hakkıyla korunan içeriği ihlal etmemesini sağlamak için verileri denetlemek. 

Gizlilik aynı zamanda en önemli endişe kaynağıdır. İtalya, Fransa, İspanya ve Kanada'daki yetkililer, ChatGPT'nin verilerinin neden telefon numaraları ve adresler gibi kişisel bilgileri içerdiğine yönelik soruşturma başlattı.

Ayrıca, kullanıcılar tarafından sağlanan ve kendisi hassas olabilecek bilgilerin nasıl kullanılacağı veya saklanacağı da net değil. Örneğin, Samsung geçici olarak yasaklı bir çalışan özel kaynak kodunu sızdırdıktan sonra çalışanların aracı kullanması.

Altman, kullanıcıların verilerinin modelleri eğitmek için kullanılmasını devre dışı bırakabilmeleri gerektiğini ve OpenAI gibi şirketlerin insanların verilerini silmelerini kolaylaştırması gerektiğini düşündüğünü söyledi. Geçen ay, San Francisco merkezli girişim, verilerinin kullanılmasını önlemek için kullanıcıların ChatGPT'deki sohbet geçmişlerini kapatmasına olanak tanıyan bir özelliği kullanıma sundu. 

Matbaa mı yoksa atom bombası mı?

Nihayetinde, Kongre yapay zeka hakkında nasıl düşüneceği konusunda kafası karışmış görünüyordu.

“Bilgiyi, gücü ve öğrenmeyi geniş bir alana yayan, sıradan sıradan bireyleri güçlendiren matbaa gibi mi olacak? Bu, daha fazla gelişmeye, her şeyden önce daha fazla özgürlüğe mi yol açtı? Yoksa daha çok atom bombası gibi mi olacak - Büyük bir teknolojik atılım, ancak sonuçları ciddi, korkunç ve bugüne kadar bizi rahatsız etmeye devam ediyor mu? Senatör Hawley sordu.

"Odadaki hiçbirimizin bu sorunun cevabını bildiğini sanmıyorum. Bu yüzden cevabın henüz yazılmadığını düşünüyorum. Ve bir dereceye kadar, cevabı yazmak burada bize ve Amerikan halkı olarak bize bağlı” dedi.

Bununla birlikte, endüstri ve akademi uzmanları daha anlayışlı. Yapay zekanın hızla ilerlediği ve yeni toplumsal riskler ve zorluklar oluşturduğu konusunda hemfikirler. Araştırma ve geliştirmeyi engellemeden güvenlik konularını ele almak için düzenleyici politikalar istiyorlar.

“Herhangi bir yeni yaklaşımın, herhangi bir yeni yasanın, inovasyonun daha küçük şirketlerde, açık kaynak modellerinde, daha küçük ölçekte çalışan araştırmacılarda gerçekleşmesini engellememesinin önemli olduğunu düşünüyorum. Bu, bu ekosistemin ve Amerika'nın harika bir parçası. Bunu yavaşlatmak istemiyoruz, ”diye bitirdi Altman. ®

spot_img

En Son İstihbarat

spot_img