Avrupa Yapay Zeka Yasası, henüz yasalaşmamış olsa da, Avrupa Birliği'nde yapay zekaya (AI) yönelik insan gözetimi ve mevzuat uyumluluğu konusunda yeni düzeylere öncülük ediyor. Gizlilikle ilgili GDPR'ye benzer şekilde, AB Yapay Zeka Yasası da dünya çapında gelecek yapay zeka düzenlemelerinin gidişatını belirleme potansiyeline sahiptir.
Avrupa Parlamentosu Aralık 2023'te AB Yapay Zeka Yasası ile ilgili geçici bir anlaşmaya vardı; bu anlaşma şu anda yasama sürecinin son aşamalarına doğru ilerliyor ve 2024'ün ikinci yarısında aşamalı olarak kullanıma sunulması bekleniyor. AB hükümlerini anlamak Yapay Zeka Yasası ve uyumluluğa hazır olmak, yapay zeka geliştiren, dağıtan veya kullanan veya bunu yapmayı planlayan tüm kuruluşlar için hayati öneme sahiptir.
Yapay Zeka Yasası, "Avrupa'nın yapay zeka konusunda laboratuvardan pazara kadar küresel bir mükemmellik merkezi olarak konumunu güçlendirmeyi, Avrupa'da yapay zekanın belirlenmiş değerlere ve kurallara saygı duymasını sağlamayı ve yapay zekanın endüstriyel kullanım potansiyelinden yararlanmasını sağlamayı" amaçlıyor. Avrupa Parlamentosu Haberleri
Kısaca AB Yapay Zeka Yasası
AB Yapay Zeka Yasasının öncelikli odak noktası; risk yönetimi, veri koruma, kalite yönetim sistemleri, şeffaflık, insan gözetimi, doğruluk, sağlamlık ve siber güvenlik alanlarında mevzuat uyumluluğunu güçlendirmektir. Yapay zeka sistemlerinin nasıl geliştirildiği ve dağıtıldığı konusunda şeffaflığı ve hesap verebilirliği artırmayı amaçlayarak, piyasaya sunulan yapay zeka ürünlerinin bireylerin kullanımı için güvenli olmasını sağlamaya yardımcı oluyor.
AB Yapay Zeka Yasası, sağlık hizmetleri, finans ve enerji gibi sıkı düzenlemelere tabi olanlar da dahil olmak üzere endüstrilerde yapay zekayı sorumlu bir şekilde geliştirme ve dağıtma sorununu çözmeyi amaçlıyor. Sigorta, bankacılık ve perakende gibi müşterilere temel hizmetler sağlayan sektörler için yasa, yapay zeka kullanımının müşteri haklarını nasıl etkileyeceğini ayrıntılarıyla anlatan bir temel haklar etki değerlendirmesinin kullanılmasını zorunlu kılıyor.
AB Yapay Zeka Yasasının temel taşı: kabul edilemez riskleri önlemeye yönelik önlemler
AB Yapay Zeka Yasası, büyük dil (LLM'ler) ve temel modeller gibi üretken yapay zeka sistemleri de dahil olmak üzere genel amaçlı yapay zeka modellerinin, sistematik risk katmanlarına dayalı bir sınıflandırma sistemine bağlı kalmasını gerektirir. Daha yüksek risk katmanları, model değerlendirmesi, belgeleme ve raporlama dahil olmak üzere daha fazla şeffaflık gereksinimlerine sahiptir. Bunlar aynı zamanda sistem risklerinin değerlendirilmesini ve azaltılmasını, ciddi olayların raporlanmasını ve siber güvenliğe karşı koruma sağlanmasını da içerir. Ayrıca bu şeffaflık gereklilikleri arasında güncel teknik dokümantasyonun bakımı, model eğitimi için kullanılan içeriğin bir özetinin sağlanması ve Avrupa telif hakkı yasalarına uyum yer almaktadır.
AB Yapay Zeka Yasası, yapay zeka sistemlerinin bireyin sağlığı, güvenliği veya temel hakları açısından oluşturduğu risk düzeyini sınıflandırmak için katmanlar kullanan risk temelli bir yaklaşımı izliyor. Üç katman şunlardır:
- Düşük riskli sistemler Spam filtreleri veya video oyunları gibi, şeffaflık yükümlülükleri dışında kanun kapsamında çok az gereklilik vardır.
- Yüksek riskli yapay zeka sistemleri otonom araçlar, tıbbi cihazlar ve kritik altyapılar (su, gaz, elektrik vb.) geliştiricilerin ve kullanıcıların ek düzenleyici gereksinimlere uymasını gerektirir:
- Risk yönetimini uygulayın, doğruluk, sağlamlık ve insan gözetimini de içeren bir hesap verebilirlik çerçevesi sağlayın
- Kullanıcılar, kayıt tutma ve teknik belgeler için sağlanan şeffaflık gereksinimlerini karşılayın
- Küçük istisna dışında yasaklanmış sistemler kamusal alanlarda sosyal puanlama, yüz tanıma, duygu tanıma ve uzaktan biyometrik tanımlama sistemleri gibi kabul edilemez risk oluşturan sistemlerdir.
AB Yapay Zeka Yasası aynı zamanda bir chatbot kullanırken veya bir duygu tanıma sistemi kullanıldığında müşterilerin nasıl bilgilendirileceğine ilişkin kurallar da getiriyor. Derin sahtekarlıkların etiketlenmesi ve medyada üretken yapay zeka içeriğinin ne zaman kullanıldığının belirlenmesi için ek gereksinimler vardır.
AB Yapay Zeka Yasasına uymamak maliyetli olabilir:
Yanlış bilgi sağlanması nedeniyle 7.5 milyon Euro veya bir şirketin dünya çapındaki toplam yıllık cirosunun %1.5'i (hangisi daha yüksekse). AB Yapay Zeka Yasası yükümlülüklerinin ihlali nedeniyle 15 milyon Euro veya bir şirketin dünya çapındaki toplam yıllık cirosunun %3'ü (hangisi daha yüksekse). Aralık 19, 2023
Avrupa Yapay Zeka Yasası şu anda yapay zeka düzenlemeleri için en kapsamlı yasal çerçevedir. Dünya çapındaki hükümetler vatandaşlarının, iş dünyasının ve devlet kurumlarının potansiyel risklerden korunmasını sağlamak için yapay zeka teknolojisini nasıl düzenleyeceklerini dikkate alıyor ve aktif olarak tartışıyor. Ayrıca kurumsal yönetim kurullarından tüketicilere kadar paydaşlar, konu yapay zeka olduğunda güvene, şeffaflığa, adalete ve hesap verebilirliğe öncelik veriyor.
IBM ile yaklaşan düzenlemelere hazırlanmak
IBM watsonx.governance sorumlu, şeffaf ve açıklanabilir yapay zeka iş akışlarını hızlandırır
IBM® watsonx.governance™, kuruluşunuzun yapay zeka etkinliklerinin yönlendirilmesini, yönetilmesini ve izlenmesini sağlayarak yapay zeka yönetişimini hızlandırır. Hem üretken yapay zeka hem de tahmine dayalı makine öğrenimi (ML) modelleri için riskleri azaltma, düzenleyici gereksinimleri yönetme ve yaşam döngüsünü yönetme yeteneğini güçlendirmek için yazılım otomasyonundan yararlanır.
watsonx.governance, 3 temel alanda model şeffaflığını, açıklanabilirliğini ve belgelenmesini teşvik eder:
- Düzenleyici uyma -Dünya çapında gelecek güvenlik ve şeffaflık düzenlemelerini, politikalarını ve standartlarını karşılamak için yapay zekayı yönetin. Geçerli gereksinime göre mevzuat değişikliğinin tanımlanmasını otomatikleştirin, düzenleyici verileri temel risk kontrollerine ve politikalarına bağlayın ve sorguları ve denetimleri desteklemek üzere model meta verilerinin yakalanmasını ve raporlanmasını otomatikleştirmek için bilgi formlarını kullanın.
- Risk yönetimi - risk eşiklerini önceden ayarlayın ve yapay zeka modeli risklerini proaktif olarak tespit edip azaltın. Adaleti, sapmayı, önyargıyı ve yeni üretken yapay zeka ölçümlerini izleyin. Kullanıma dayalı kontrol panelleri ve raporlarla kuruluşunuz genelindeki risk durumuna ilişkin öngörüler elde edin. Tüm risk verilerini, risk/kontrol değerlendirmelerini, iç ve dış kayıp olaylarını, temel risk göstergelerini ve sorun/eylem planı yönetimini tek bir ortamda entegre edin.
- Yaşam döngüsü yönetimi - Yaşam döngüsü yönetimi – Entegre iş akışlarını/onayları, önceden ayarlanmış uyarıları, kontrol panellerini ve özelleştirilebilir raporları kullanarak yaşam döngüsü boyunca hem üretken yapay zeka hem de tahmine dayalı makine öğrenimi modellerini yönetin. Kullanım senaryoları, süreç içi değişiklik talepleri, zorluklar, sorunlar ve atanan görevlere ilişkin ölçümleri ve durumu izleyin.
Yapay zeka yönetişimiyle 'kara kutuyu açın'
Bu makale yardımcı oldu mu?
EvetYok hayır
Yapay zeka hakkında daha fazlası
IBM Haber Bültenleri
Gelişmekte olan trendlere ilişkin en son düşünce liderliğini ve içgörüleri sunan haber bültenlerimizi ve konu güncellemelerimizi alın.
Şimdi abone
Daha fazla haber bülteni
- SEO Destekli İçerik ve Halkla İlişkiler Dağıtımı. Bugün Gücünüzü Artırın.
- PlatoData.Network Dikey Üretken Yapay Zeka. Kendine güç ver. Buradan Erişin.
- PlatoAiStream. Web3 Zekası. Bilgi Genişletildi. Buradan Erişin.
- PlatoESG. karbon, temiz teknoloji, Enerji, Çevre, Güneş, Atık Yönetimi. Buradan Erişin.
- PlatoSağlık. Biyoteknoloji ve Klinik Araştırmalar Zekası. Buradan Erişin.
- Kaynak: https://www.ibm.com/blog/eu-ai-act/