Zephyrnet Logosu

AB milletvekilleri sızdırılmış teknik incelemeye göre AI için riske dayalı kurallara uyuyor

Tarih:

The Avrupa Komisyonu tarafından elde edilen yapay zekayı düzenleyen bir taslak öneriye göre, yüz tanıma teknolojisinin kullanımına geçici bir yasak getirmeyi düşünüyor. EuroActiv.

Sağlamak için kurallar oluşturmak AI 'güvenilir ve insan' erken amiral gemisi politika sözü Başkan Ursula von der Leyen liderliğindeki yeni Komisyonun

Ancak sızdırılan öneri, AB'nin yürütme organının aslında genel sektörel gereksinimler veya yasaklar kadar katı bir şeyden ziyade, mevcut kuralların ve sektöre / uygulamaya özgü risk değerlendirmelerinin ve gereksinimlerin ince ayarlarına yöneldiğini gösteriyor.

Sızan Komisyon Beyaz kağıt Yüz tanıma teknolojisinin halka açık yerlerde yasaklanabileceği üç ila beş yıllık bir dönem fikrini öne sürüyor - AB milletvekillerine, teknolojinin kullanımıyla ilgili riskleri değerlendirme ve yönetme yolları bulmaları için zaman tanıyor. kişilerin mahremiyet haklarına veya önyargılı algoritmalardan kaynaklanan ayrımcı etki riskine.

Komisyon, "Bu, bireylerin haklarını, özellikle teknolojinin herhangi bir olası suistimaline karşı koruyacaktır" diye yazıyor: "Özellikle araştırma ve geliştirme bağlamındaki faaliyetler ve güvenlik için bazı istisnalar öngörmek gerekli olacaktır. amaçlar. "

Bununla birlikte, metin, "bu teknolojinin geliştirilmesini ve alımını engelleyebilecek geniş kapsamlı bir önlem" olarak tanımlanan, zamanla sınırlı bir yasağın bile empoze edilmesiyle ilgili acil endişeler ortaya koymaktadır ve Komisyon, bu konudaki tercihini belirtmeye devam etmektedir. aşama ”, Genel Veri Koruma Yönetmeliği (GDPR) olarak da bilinen mevcut AB veri koruma kurallarına güvenmektir.

Beyaz kitap, Komisyon'un yapay zeka kullanımını daha genel olarak düzenlemek için hala düşündüğü bir dizi seçeneği içeriyor.

Bunlar, gönüllü etiketlemeden; kamu sektörü için sektörel gereklilikler empoze etmek (yüz tanıma teknolojisinin kullanımı dahil); “yüksek riskli” uygulamalar için zorunlu risk temelli gerekliliklere (örneğin sağlık, ulaşım, polislik ve yargı gibi riskli sektörler ve ayrıca “birey veya tüzel kişilik için yasal etkiler yaratabilecek veya risk oluşturabilecek uygulamalar için) yaralanma, ölüm veya önemli maddi hasar ”); mevcut AB ürün güvenlik ve sorumluluk mevzuatında hedeflenen değişiklikler.

Teklif aynı zamanda kurallara uyulmasını sağlamak için bir gözetim yönetişim rejimine duyulan ihtiyacı vurgulamaktadır - ancak Komisyon, bu görev için mevcut yönetişim organlarına güvenip güvenmemeyi veya yapay zekayı düzenlemeye adanmış yenilerini oluşturmayı seçmeyi Üye Devletlere açık bırakmayı önermektedir.

Taslak teknik incelemeye göre Komisyon, yapay zekayı düzenleme tercihinin seçenek 3 ile 4 ve 5 birleşimi olduğunu söylüyor: Aka geliştiriciler için zorunlu risk temelli gereksinimler (yapay zeka uygulamalarının alt kümesi ne olursa olsun "yüksek riskli" olarak kabul edilir) mevcut ürün güvenliği ve yükümlülüğü mevzuatı ve kapsayıcı bir yönetişim çerçevesi ile ilgili ince ayarlarla birlikte bazı "zorunlu kriterler" ile sonuçlanır.

Dolayısıyla, göreceli olarak hafif dokunuşlu bir yaklaşıma doğru eğiliyor gibi görünmektedir. "Mevcut AB mevzuatı üzerine inşa etmek" ve "yüksek riskli" AI uygulamaları / kullanımlarının bir alt kümesi için uygulamaya özel kurallar oluşturmak ve bunlar muhtemelen yüz tanıma teknolojisinde geçici bir yasaklamaya kadar uzanmayacak.

Beyaz kitabın çoğu, "AI'nın gelişimini ve alımını desteklemek" ve "verilere erişimi kolaylaştırmak" ile ilgili stratejilerin tartışılmasıyla da ilgilidir.

Komisyon, "Bu risk temelli yaklaşım, halkın risk altında olduğu veya önemli bir yasal çıkarın söz konusu olduğu alanlara odaklanacaktır" diye yazıyor. "Kesin olarak hedeflenen bu yaklaşım, 'düşük riskli' kabul edilen uygulamalara herhangi bir yeni ek idari yük getirmeyecektir."

İç pazar portföyünü denetleyen AB komiseri Thierry Breton, geçen yıl yapay zeka için kurallar oluşturmaya karşı direncini dile getirerek, AB parlamentosuna o zaman "yapay zekayı düzenlemenin sesi olmayacak".

"Düşük riskli" yapay zeka uygulamaları için beyaz kitap, GDPR'de bireylere otomatik işleme ve profil oluşturma hakkında bilgi alma hakkı veren ve bir veri koruma etki değerlendirmesi yürütme gereksinimi belirleyen hükümlerin geçerli olacağını belirtiyor.

Gerçi düzenleme yalnızca ilgili kişiler üzerinde yasal veya benzer şekilde önemli bir etkinin olduğu durumlarda, otomatik işlemeye ilişkin sınırlı hakları ve kısıtlamaları tanımlar. Bu nedenle, gerçekte "düşük riskli" uygulamalara ne kadar kapsamlı bir şekilde uygulanacağı net değil.

Komisyon'un amacı da, yüksek riskli konuları - örneğin polis güçlerinin yüz tanıma teknolojisini kullanması gibi - düzenlemek için GDPR'ye güvenmekse, gizlilik açısından oldukça düşmanca bir yapay zeka kullanımını kısıtlamak için daha açık bir sektörel çerçeve oluşturmak yerine UCL'de dijital haklar ve düzenleme alanında öğretim görevlisi olan Dr. Michael Veale'e göre, bu durum, kolluk kuvvetlerinin söz konusu olduğu halihazırda kafa karıştırıcı bir yasal tabloyu daha da kötüleştirebilir.

“Kolluk alanında ve özellikle kolluk kuvvetlerinde kamu-özel ortaklıklarının kullanılması konusunda durum son derece belirsizdir. GDPR'nin, üye devletlerin yetkilerini derogate etmek için aktif olarak yasaya muafiyet yasaları yapmadan, bir gözetim bağlamında özel şirketler tarafından yüz tanımayı yasakladığını iddia ediyorum. Bununla birlikte, yüz tanıma firmalarında şüphe duyan tüccarlar, işlerini meşrulaştırmak için bu hukuk alanına ağır bir belirsizlik ekmeyi istiyor ”dedi TechCrunch'a.

"Sonuç olarak, ekstra netlik son derece memnuniyetle karşılanacaktır," diye ekledi Veale. "Ancak sorun yüz tanıma ile sınırlı değil: Böyle bir ses veya yürüyüş tanıma gibi herhangi bir biyometrik izleme türü herhangi bir yasak kapsamına girmelidir çünkü pratikte bireyler üzerinde aynı etkiye sahiptirler."

Komisyona AI politikası konusunda tavsiyelerde bulunmak üzere kurulmuş bir danışma organı, bir dizi tavsiyeler Geçen yıl bir raporda - YZ'nin toplu gözetleme ve vatandaşların sosyal kredi puanlama sistemleri için kullanılmasının yasaklanması da dahil.

Ancak, gizlilik ve haklar uzmanları tarafından, yapay zekanın şiddetlenen mevcut hakları aşındıran iş modellerini güçlendirmek de dahil olmak üzere daha geniş toplumsal güç dengesizliklerini ve yapısal eşitsizlik sorunlarını kavramayı başaramadığı için eleştirildi.

İçinde kâğıt Geçen yıl Veale, danışma kurulunun çalışmasını "kaçırılan bir fırsat" olarak nitelendirdi ve grubun "veri düzenleme ve yönetişimi, optimizasyon ve" yapay "düzenleme ve yönetişimiyle ilgili en önemli sorunlardan biri olmasa da altyapıyı ve gücü büyük ölçüde görmezden geldiğini yazdı. istihbarat 'Avrupa'da ileri gidiyor'.

Daha fazla oku: https://techcrunch.com/2020/01/17/eu-lawmakers-are-eyeing-risk-based-rules-for-ai-per-leaked-white-paper/

spot_img

En Son İstihbarat

spot_img