Zephyrnet Logosu

OpenAI, AB'nin Yapay Zeka Yönetmeliğine İlişkin Endişeleri Artırdı, Avrupa'da Faaliyetlerini Durdurmakla Tehdit Ediyor

Tarih:

OpenAI Avrupa'da Faaliyetlerini Durdurmakla Tehdit Ediyor | Yapay Zeka Yasası

ChatGPT'nin arkasındaki ünlü yapay zeka şirketi OpenAI, Avrupa Birliği'nin önerdiği AI Yasası hakkındaki endişelerini dile getirdi. OpenAI CEO'su Sam Altman, yakın zamanda Londra'ya yaptığı bir ziyarette OpenAI endişelerini dile getirdi ve Avrupa'daki faaliyetlerini durdurmakla tehdit etti. Ayrıca, düzenlemelere uyumun savunulamaz hale gelmesi durumunda şirketin hizmetlerini AB'den çekmek zorunda kalabileceği konusunda uyardı. OpenAI'nin Avrupa'daki operasyonları üzerindeki olası etkileriyle bu gelişme, önemli tartışmalara ve dikkatlere yol açtı. AB'nin AI Yasasının ayrıntılarını inceleyelim ve OpenAI'nin duruşunun olası sonuçlarını keşfedelim.Ayrıca Oku: OpenAI CEO'su, Milletvekillerini Yapay Zeka Risklerini Göz önünde bulundurarak Yapay Zekayı Düzenlemeye Çağırıyor

AB'nin Önerilen Yapay Zeka Yasası ve Hedefleri

AB'nin Önerilen Yapay Zeka Yasası ve Hedefleri | OpenAI | Sam Altman

Avrupa Birliği, önerilen AI Yasası ile çığır açan bir girişim başlattı. Dünya çapında AI ile ilgili ilk birincil düzenleyici mevzuat olarak selamlanıyor. Yasa, öncelikle yapay zeka sistemlerini düzenlemeye ve Avrupa vatandaşlarını yapay zeka ile ilgili potansiyel risklerden korumaya odaklanıyor. Avrupa Parlamentosu, 14 Haziran olarak belirlenen geçici kabul tarihi ile AI Yasasını kabul etmek için oy vererek ezici bir destek gösterdi.Ayrıca Oku: Beyaz Saray, Yapay Zeka Tehditini Ele Almak İçin Tech Tycoons'u Buluşturmaya Çağırdı

Yapay Zeka Yasası Tarafından Tanımlanan Üç Risk Kategorisi

AI sistemleriyle ilişkili değişen derecelerde riskleri ele almak için AI Yasası, üç farklı kategoride bir sınıflandırma önerir:

Yapay Zeka Yasası Tarafından Tanımlanan Üç Risk Kategorisi | AB | OpenAI, Avrupa'daki Faaliyetlerini Durdurmakla Tehdit Ediyor

A. En Yüksek Risk Kategorisi:

AI Yasası, ABD'de gözlemlenen devlet tarafından yürütülen sosyal puanlama sistemlerine benzeyenler gibi kabul edilemez bir risk oluşturan AI sistemlerinin kullanılmasını açıkça yasaklamaktadır. Çin. Bu tür yasaklar, bireysel mahremiyeti korumayı, potansiyel ayrımcılığı önlemeyi ve zararlı sosyal sonuçlara karşı korumayı amaçlar.

İkinci kategori, belirli yasal gerekliliklere tabi yapay zeka sistemleriyle ilgilidir. Kanunda belirtilen bir örnek, AI sistemlerini kullanmaktır. özgeçmişleri tarayın ve iş başvurularını sıralayın. AB, yasal yükümlülükler getirerek yapay zeka odaklı istihdam uygulamalarında adalet ve şeffaflık sağlamayı amaçlıyor.

C. Büyük Ölçüde Düzenlenmemiş Kategori:

Açıkça yasaklanmayan veya yüksek riskli olarak listelenmeyen AI sistemleri bu kategoriye girer, bu da büyük ölçüde denetimsiz kalacakları anlamına gelir. Bu yaklaşım, yapay zeka teknolojilerinde yenilik ve gelişmeye yer bırakırken esneklik sağlar.Ayrıca Oku: Avrupa, İtalya'nın ChatGPT Engellemesinin Ardından Yapay Zeka Chatbot Yasaklarını Düşünüyor

Teknoloji Şirketlerinin Dikkat ve Denge Talepleri

Teknoloji Şirketlerinin Dikkat ve Denge Talepleri | Yapay Zeka Yasası | OpenAI, Avrupa'daki Faaliyetlerini Durdurmakla Tehdit Ediyor

OpenAI ve Google dahil olmak üzere çok sayıda ABD teknoloji şirketi, AI düzenlemesine daha dengeli bir yaklaşım için Brüksel'e başvurdu. Avrupa'nın, fırsatları ve riskleri etkili bir şekilde dengeleyerek teknolojinin inceliklerini incelemek ve anlamak için yeterli zaman ayırması gerektiğini savunuyorlar. Google'ın CEO'su Sundar Pichai, geçtiğimiz günlerde yapay zeka politikasını tartışmak için kilit AB yetkilileriyle bir araya geldi ve ilerlemeyi engellemeden yeniliği teşvik eden düzenlemelerin önemini vurguladı.

Londra ziyareti sırasında Sam Altman, OpenAI'nin AI Yasası hükümlerine uyma kabiliyetine ilişkin ciddi endişelerini dile getirdi. Altman, şirketin uyma niyetini kabul ederken, uyum imkansız hale gelirse OpenAI'nin Avrupa'daki faaliyetlerini durdurmaktan başka çaresi kalmayacağını belirtti. İlginç bir şekilde Sam Altman, önemli ölçekte yapay zeka projelerini denetlemek için bir devlet kurumu kurulmasını da savundu. Böyle bir kurumun yapay zeka şirketlerine lisans vermesi ve güvenlik kurallarının ihlal edilmesi durumunda lisansları iptal etme yetkisine sahip olması gerektiğine inanıyor.Ayrıca Oku: OpenAI Liderleri, Yapay Zekanın Riski Hakkında Yazıyor, Yönetim Yolları Öneriyor

Şeffaflık ve Güvenlik Hususları

Yapay Zeka Yasası | AB | Sam Altman | OpenAI, Avrupa'daki Faaliyetlerini Durdurmakla Tehdit Ediyor

OpenAI, AI modelleriyle ilgili şeffaf olmadığı için eleştirilere maruz kaldı. son sürümü GPT 4 eğitim verileri, maliyet ve oluşturma süreci hakkında bilgi eksikliği nedeniyle yapay zeka topluluğu içinde hayal kırıklığına neden oldu. OpenAI'nin kurucu ortağı ve baş bilim adamı Ilya Sutskever, rekabet ve güvenlik endişelerini öne sürerek bu pozisyonu savundu. Sutskever, yapay zeka modellerini geliştirmek için gereken işbirliğine dayalı çabayı ve zamanı vurguladı. Ayrıca, güvenliğin daha da önemli hale geleceğini kaydetti.

Bizim Sözümüz

As AI düzenlemelerini çevreleyen tartışma yoğunlaşıyor, OpenAI, AB'nin AI Yasası önemli ölçüde dikkat çektiği için Avrupa'da faaliyetlerini durdurma tehdidinde bulunuyor. Önerilen mevzuat, düzenleme ve yeniliği dengelemeyi amaçlamaktadır. Bu nedenle, yapay zeka sistemlerinin ilerleme için yer açarken gereksiz riskler oluşturmamasını sağlamak. OpenAI'nin endişeleri, şirketlerin karmaşık düzenleyici çerçevelerde gezinirken karşılaştıkları zorlukların altını çiziyor. Yapay Zeka Yasasının kabulü yaklaşırken, Yapay Zeka düzenlemesinin geleceğine ilişkin tartışmalar şüphesiz hem teknoloji camiasını hem de politika yapıcıları cezbetmeye devam edecek.

spot_img

En Son İstihbarat

spot_img