Zephyrnet Logosu

Uzmanlar, şimdi önlem alınmazsa yapay zekanın neslinin tükeneceği konusunda uyarıyor

Tarih:

Yapay zekanın ortalıkta dolaşmasıyla ilgili felaket tellalı bir açık mektup daha var. Bu kez geniş bir teknoloji liderleri, makine öğrenimi aydınları ve hatta birkaç ünlü, dünyayı yapay zekanın oluşturduğu yok olma düzeyinde olduğu iddia edilen tehditleri daha ciddiye almaya çağırmak için imza attı. 

Daha uygun bir ifadeyle, Yapay Zeka Öncüsü gibi kişiler tarafından imzalanan, Yapay Zeka Güvenliği Merkezi'nden (CAIS) gelen mesaj Geoffrey Hinton, OpenAI CEO'su Sam Altman, şifreleme gurusu Martin Hellman, Microsoft CTO Kevin Scott ve diğerleri tek bildirim cümlesi dikkate alınmazsa kıyametin geleceğini tahmin etmek:

"Yapay zekanın yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır." 

Neden bu kadar kısa? Amaç, “Yapay zekanın yok olma risklerinden endişe duyan yapay zeka bilim insanları, teknoloji liderleri ve profesörlerden oluşan geniş ve büyüyen koalisyonu göstermekti. CAIS direktörü Dan Hendrycks, yararlı politika tartışmaları yapabilmemiz için risklerin geniş çapta kabul edilmesine ihtiyacımız olduğunu söyledi. Kayıt.

CAIS, yapay genel zekadan (AGI) hiç bahsetmiyor AI risklerinin listesi, not ediyoruz. Hendrycks bize ChatGPT gibi mevcut nesil modellerin insanlık için kıyamet gibi bir tehdit olmadığını söyledi. Bu haftaki uyarı bundan sonra ne olabileceğiyle ilgili.

Hendrycks, "Bu açıklamanın atıfta bulunduğu yıkıcı tehdit türleri, gelecekteki gelişmiş yapay zeka sistemleriyle ilişkilidir" dedi. "Kıyamet tehdidi" düzeyine ulaşmak için gerekli ilerlemelerin birkaç on yıl değil, iki ila 10 yıl kadar kısa bir sürede olabileceğini ekledi. "Şimdi hazırlanmamız lazım. Ancak felaketle sonuçlanabilecek yapay zeka sistemlerinin YGZ olması gerekmiyor” dedi. 

Çünkü insanlar zaten tamamen barışçıldır

Böyle bir tehdit silahlaştırma veya birisinin yardımsever yapay zekayı son derece yıkıcı olacak şekilde yeniden tasarlayabileceği fikri, örneğin kimyasal veya biyolojik silahlar geliştirmek için bir ilaç keşif botu kullanmak veya makine tabanlı savaş için takviyeli öğrenmeyi kullanmak. Bununla birlikte, İnsanlar bir kişiyi, mahalleyi, şehri veya ülkeyi yok edebilecek bu tür silahları üretme konusunda zaten oldukça yeteneklidir.

Yapay zekanın bireysel veya toplumsal değerlere bakılmaksızın hedeflerini takip edecek şekilde de eğitilebileceği konusunda uyarıldık. Becerilerini ve yeteneklerini otomatik makinelere bırakan insanları "zayıflayabilir", yapay zekanın kontrolörleri ile otomasyon nedeniyle yerinden edilenler arasında güç dengesizliğine neden olabilir veya kasıtlı veya kasıtlı olarak dezenformasyon yaymak için kullanılabilir. aksi takdirde.

Yine, bunda yer alan yapay zekaların hiçbirinin genel olması gerekmiyor ve mevcut nesil yapay zekanın, CAIS'in endişelendiği türden riskleri ortaya çıkaracak şekilde gelişme potansiyelini görmek çok da zor değil. Yazılımın ne kadar yıkıcı veya yetenekli olabileceği veya olabileceği ve gerçekte neyi başarabileceği konusunda kendi fikirleriniz olabilir.

CAIS'in argümanına göre yapay zekanın halihazırda hissedilen olumsuz etkilerini incelemek, ele almak ve bu mevcut etkileri öngörüye dönüştürmek çok önemlidir. Hendrycks, "Ani yapay zeka riskleriyle boğuşurken, dünya çapındaki yapay zeka endüstrisinin ve hükümetlerin, gelecekteki yapay zekaların insan varlığına tehdit oluşturabileceği riskiyle de ciddi şekilde yüzleşmesi gerekiyor" dedi. şuraya yaptığı açıklamada.

“Dünya nükleer savaşla ilgili riskleri azaltmak için başarılı bir şekilde işbirliği yaptı. Hendrycks, kendisini destekleyen kurumsal, akademik ve düşünce liderlerinin bir listesiyle birlikte, gelecekteki yapay zeka sistemlerinin oluşturduğu tehlikeleri ele almak için de aynı düzeyde çabaya ihtiyaç duyulduğunu söyledi. 

Musk gemide değil

Diğer imzacılar arasında Google DeepMind'ın baş bilimcisi Ian Goodfellow, filozoflar David Chalmers ve Daniel Dennett, yazar ve blog yazarı Sam Harris ve müzisyen/Elon Musk'un eski sevgilisi Grimes yer alıyor. Adamın kendisinden bahsetmişken Musk'ın imzası yok. 

Twitter'ın CEO'su oldu imzalayanlar arasında açık mektup Yaşamın Geleceği Enstitüsü tarafından geçtiğimiz Mart ayında yayınlanan altı aylık duraklama "GPT-4'ten daha güçlü" yapay zeka sistemlerinin eğitimi hakkında. Şaşırtıcı olmayan bir şekilde, OpenAI CEO'su Altman'ın imzası şu adreste yoktu: o Görünüşe göre şirketini doğrudan çağırdığı için özel bir mektup. 

OpenAI o zamandan beri yayınlandı kendi uyarıları gelişmiş yapay zekanın oluşturduğu tehditler hakkında konuştu ve yapay zeka kullanımını düzenlemek için Uluslararası Atom Enerjisi Ajansı'na benzer bir küresel gözlemcinin kurulması çağrısında bulundu.

Bu uyarı ve düzenleme çağrısı, tarihsel olarak kötü bir zamanlamaya rağmen aynı gün geldi Altman tehdit OpenAI ve ChatGPT'yi blok üzerinden AB'den çekmek AI Yasası. Desteklediği kurallar bir şeydir, ancak Altman Brüksel'e yapay zeka kısıtlaması fikrinin çok ileri bir düzenleyici köprü olduğunu söyledi, çok teşekkür ederim. 

AB parlamenterleri cevap Hollandalı milletvekili Kim van Sparrentak, bunların OpenAI tarafından dikte edilmeyeceğini ve şirketin temel yönetişim ve şeffaflık kurallarına uyamaması durumunda "sistemlerinin Avrupa pazarına uygun olmadığını" öne sürdü. 

OpenAI'den Altman'ın konumu/durumları hakkında açıklama istedik ve geri dönüş alırsak bu hikayeyi güncelleyeceğiz. ®

spot_img

En Son İstihbarat

spot_img