Zephyrnet Logosu

Yapay zeka toplulukları nasıl güçlendirebilir ve demokrasiyi nasıl güçlendirebilir?

Tarih:

Son beş yıldır her XNUMX Temmuz'da Demokratik toplumları olumlu yönde etkileme potansiyeline sahip yapay zeka hakkında yazdım. Toplulukları güçlendirebilecek, mahremiyeti ve özgürlükleri koruyabilecek veya başka bir şekilde kamu yararını destekleyebilecek teknolojiye ışık tutabilme umuduyla bu soruya geri dönüyorum.

Bu seri, yapay zekanın sadece değer çıkarma değil, aynı zamanda bireysel ve toplumsal güçlendirme yeteneğine de sahip olduğu ilkesine dayanmaktadır. Yapay zeka çözümleri genellikle yanlılığı yayar, ancak bu yanlılığı tespit etmek için de kullanılabilirler. Dr. Safiya Noble'ın işaret ettiği gibi, yapay zeka hayatımızın en kritik insan hakları sorunlarından biridir. Yapay zeka okuryazarlığı aynı zamanda, Microsoft CTO'su Kevin Scott'ın iddia ettiği gibi, 21. yüzyılda bilinçli bir vatandaş olmanın kritik bir parçası.

Bu yıl, daha geniş bir görüş yelpazesi toplamak için soruyu Twitter'da sordum. Katkıda bulunan herkese teşekkür ederiz.

VB Transform 2020 Çevrimiçi - 15-17 Temmuz. Önde gelen AI yöneticilerine katılın: Ücretsiz canlı yayın için kaydolun.

Bu seçimin kapsamlı olması amaçlanmamıştır ve burada yer alan bazı fikirler erken aşamalarda olabilir, ancak bunlar yapay zekanın daha özgür ve adil toplumların gelişimini sağlayabileceği yolları temsil eder.

Açık kaynak zekası için makine öğrenimi 

Açık kaynak zekası veya OSINT, ücretsiz olarak kullanılabilen kamuya açık materyallerin toplanması ve analizidir. Bu, kriptoloji ve güvenlik çözümlerini güçlendirebilir, ancak hükümetleri sorumlu tutmak için de kullanılabilir.

Bellingcat gibi grupların kitle kaynaklı çabaları bir zamanlar ilginç yan projeler olarak görülüyordu. Ancak bulgular açık kaynak kanıtlara dayalı Ukrayna üzerinde vurulan bir MH-17 ve Suriye'de 2013'te meydana gelen sarin gazı saldırısı gibi muharebe bölgelerinden gelen veriler, soruşturma makamları için değerli olduğunu kanıtladı.

Uluslararası Araştırmacı Gazeteciler Konsorsiyumu (ICIJ) gibi gruplar, işbirlikçi çalışmalarında makine öğrenimini kullanma. Geçen yıl, ICIJ'den Marina Walker Guevara, Araştırmalar için Makine Öğrenimi Stanford AI Lab ile ortaklaşa yürütülen raporlama süreci.

Mayıs ayında Brezilya, Sao Paulo'daki Universidade Nove de Julho'dan araştırmacılar bir açık kaynak zekası için yapay zekanın sistematik olarak gözden geçirilmesi 250 ve 1990 yılları arasında yayınlanan çalışmalarda yapay zeka kullanan yaklaşık 2019 OSINT örneği buldu. Konular, web metinlerini ve belgeleri taramak için yapay zekadan sosyal medya, iş ve - giderek artan bir şekilde - siber güvenlik uygulamalarına kadar uzanıyor.

Benzer şekilde, Swansea Üniversitesi'nden bir açık kaynak girişimi şu anda Yemen'de meydana geldiği iddia edilen savaş suçlarını araştırmak için makine öğrenimini kullanma.

özgürleşme için AI 

Geçen ay, bazı işlemlerin başlamasından kısa bir süre sonra ABD tarihinin en büyük protestoları Amerikan şehirlerini yuttu ve dünyaya yayıldı, ben dil modellerinde yapay zeka yanlılığının analizi hakkında yazdı. O yazıda konuyu gündeme getirmemiş olsam da, çalışma, yapay zeka araştırmasında "özgürleşme" kelimesiyle ilk kez karşılaştığım çalışma olarak göze çarpıyordu. Terim, araştırmacıların toplumdilbilim alanındaki NLP önyargı analistleri için en iyi uygulama önerileriyle ilgili olarak ortaya çıktı.

Baş yazar Su Lin Blodgett'tan bu fikir hakkında daha fazla konuşmasını istedim. Blodgett, bugün tasarımında özgürleştirici olarak tanımlanabilecek herhangi bir yapay zeka sisteminin farkında olmadığını, ancak Yerli Protokol ve Yapay Zeka Çalışma Grubu gibi grupların çalışmalarından heyecan duyduğunu söyledi.

Blodgett, özgürleşmeye değinen yapay zekanın, dilleri canlandırmaya veya geri kazanmaya yardımcı olan NLP projelerini ve düşük kaynaklı diller için doğal dil işleme oluşturmaya yönelik projeleri içerdiğini söyledi. Ayrıca, insanların sansüre direnmesine ve hükümet yetkililerini sorumlu tutmasına yardımcı olmayı amaçlayan AI'dan da alıntı yaptı.

Chelsea Barabas, bu yılın başlarında bir ACM FAccT konferans sunumunda benzer temaları araştırdı. Barabas çekti antropolog Laura Nader'in çalışması, antropologların dezavantajlı grupları klişeleri sürdürecek şekillerde inceleme eğiliminde olduklarını keşfeden. Bunun yerine Nader, antropologları araştırma alanlarını "sömürülenler yerine sömürgeciler, güçsüzlerin kültürü yerine güç kültürü, yoksulluk kültürü yerine refah kültürü"nü içerecek şekilde genişletmeye çağırdı.

Barabas sunumunda aynı şekilde veri bilimcilerini eleştirel bakışlarını adalet adına yeniden yönlendirmeye çağırdı. Örnek olarak, hem Barbara hem de Blodgett şu araştırmayı onayladı: "beyaz yakalı" suçları, tipik olarak diğer suçlara ayrılan dikkat düzeyiyle inceler.

In Teknoloji Sonrası Yarış, Princeton Üniversitesi profesörü Ruha Benjamin de teknolojide kölelik karşıtı araçlar kavramını savunuyor. Catherine D'Ignazio ve Lauren F. Klein'ın Veri Feminizmi ve Sasha Costanza-Chock'un Tasarım Adaleti güce meydan okumak için kullanılabilecek başka veri kümeleri örnekleri sunar.

Polis memurları için ırksal önyargı tespiti

NLP'nin geniş ölçekte veri işleme yeteneğinden yararlanan Stanford Üniversitesi araştırmacıları, polis memurları ile trafik ihlali nedeniyle durdurulan kişiler arasındaki konuşmaların kayıtlarını inceledi. Araştırmacılar, hesaplamalı dilbilimi kullanarak, polis memurlarının trafik durmaları sırasında Siyah vatandaşlara daha az saygı gösterdiğini gösterebildiler. Çalışmanın odak noktasının bir parçası Proceedings of the National Academy of Science 2017'de yayınlandı amacı, polis vücut kamerası görüntülerinin topluluklar ve kolluk kuvvetleri arasında güven oluşturmanın bir yolu olarak nasıl kullanılabileceğini vurgulamaktı. Analiz, örnekleri tek tek ayrıştırmak yerine bir grup veriden sonuçlar çıkaran, yıllar boyunca toplanan bir kayıt koleksiyonunu kullandı.

Algoritmik bir haklar beyannamesi

Fikri algoritmik haklar listesi son zamanlarda bir ortaya çıktı Siyah robot uzmanıyla daha iyi yapay zeka oluşturma hakkında sohbet. Bu kavram 2019 kitabında tanıtıldı Bir İnsanın Makine Zekası Rehberi ve ilerisi Vox personel yazarı Sigal Samuel tarafından detaylandırıldı.

Bu fikrin temel ilkelerinden biri şeffaflıktır, yani her kişinin bir algoritmanın ne zaman karar verdiğini ve bu süreçte dikkate alınan faktörleri bilme hakkı vardır. Algoritmik bir haklar beyannamesi aynı zamanda önyargıdan kurtulma, veri taşınabilirliği, onay verme veya reddetme özgürlüğü ve insan incelemesiyle algoritmik sonuçlara itiraz etme hakkını da içerecektir.

Samuel'in haberinde işaret ettiği gibi, bu kavramlardan bazıları, örneğin önyargıdan uzak durmak, Kongre'de önerilen yasalarda yer almıştır. 2019 Algoritmik Sorumluluk Yasası gibi.

Gerçekleri kontrol etme ve yanlış bilgilerle mücadele etme

Ötesinde vatandaş hizmetleri sağlayan botlar veya kamu hesap verebilirliğini teşvik etmek için AI, derin sahtekarlıklar ve yanlış bilgilendirme ile mücadele etmek için kullanılabilir. Örnekler şunları içerir: Full Fact'in Africa Check, Chequeado ve Open Data Institute ile yaptığı çalışma doğrulamanın bir parçası olarak otomatikleştirmek için Google AI Etki Yarışması.

Deepfakes Bu sonbahar ABD seçim sezonuna girerken önemli bir endişe kaynağı. 2019 sonbahar raporunda New York Üniversitesi Stern İş ve İnsan Hakları Merkezi, yaklaşan seçimler hakkında yerel dezenformasyon biçimlerinin yanı sıra Çin, İran veya Rusya'dan gelebilecek olası dış müdahaleler konusunda uyarıda bulundu. [Bu rapor yaklaşan seçimlerden mi bahsediyordu?] Deepfake Algılama Mücadelesi Bu tür yanıltıcı videolara karşı koymaya yardımcı olmayı hedefliyor ve Facebook, derin sahte algılama sistemlerini eğitmek ve kıyaslamak için bir video veri seti tanıttı.

Pol.is

Kullanıcı katılımını artırmak için bölünmeyi kışkırttığına dair belgelenmiş geçmişleri olan Facebook ve YouTube gibi şirketlerin tavsiye algoritmaları, demokratik toplum için başka bir tehdit olarak tanımlandı.

Pol.is Zıt amaçlara ulaşmak, fikir birliğini oyunlaştırmak ve vatandaşları bir vektör haritası üzerinde gruplandırmak için makine öğrenimini kullanır. Fikir birliğine varmak için, katılımcıların anlaşmaya varana kadar cevaplarını gözden geçirmeleri gerekir. Pol.is, Tayvan ve İspanya'daki mevzuat taslağına yardımcı olmak için kullanılmıştır.

Algoritmik önyargı ve muhafaza

Los Angeles County'de, evsiz ve Beyaz olan bireyler, beyaz olmayan insanlara göre 1.4 kat daha fazla evsizlikten çıkıyor, bu, konut politikası veya ayrımcılıkla ilgili olabilecek bir gerçek. Yapısal ırkçılığa atıfta bulunarak, Los Angeles için evsiz nüfus sayısı geçen ay serbest bırakıldı Siyahların ilçe nüfusunun yalnızca% 8'ini, ancak evsiz nüfusunun yaklaşık% 34'ünü oluşturduğunu buldu.

Güney Kaliforniya Üniversitesi Toplumda Yapay Zeka Merkezi, bu adaletsizliği gidermek için yapay zekanın konutların adil bir şekilde dağıtılmasını sağlamaya nasıl yardımcı olabileceğini keşfedecek. Geçen ay, USC duyurdu 1.5 milyon dolar fon sağlama Los Angeles Evsiz Hizmetleri Kurumu ile birlikte çabayı ilerletmek.

Güney Kaliforniya Üniversitesi'nin sosyal hizmet okulu ve Toplumdaki AI Merkezi, 2017'den beri konut kaynaklarının tahsisindeki önyargıyı azaltmanın yollarını araştırıyor. Pandemiye bağlı iş kayıpları nedeniyle tahliyeler. 

AI etik ilkelerini uygulamaya koymak

Etik AI ilkelerini uygulamaya koymak, son yıllarda neredeyse tamamı etik niyetleri hakkında belirsiz açıklamalar yayınlayan teknoloji şirketleri için acil bir mesele değil. UC Berkeley Uzun Vadeli Siber Güvenlik Merkezi'nin bu yılın başlarında yaptığı bir araştırmaya göre, hükümetlerin teknolojiyi kendi kullanımları için etik yönergeler oluşturmaları da giderek daha önemli hale geliyor.

Ekonomik İşbirliği ve Kalkınma Örgütü (OECD) aracılığıyla ve G20, dünyanın birçok demokratik hükümeti yapay zeka etik ilkelerine bağlı kalmıştır. Ancak AI'nın etik kullanımının ne olduğuna karar vermek, uygulama olmadan anlamsızdır. Buna göre, Şubat ayında OECD, ulusların bu ilkeleri uygulamaya koymalarına yardımcı olmak için Kamu Gözlemevi'ni kurdu.

Aynı zamanda, dünyanın dört bir yanındaki hükümetler kendi etik parametrelerini formüle ediyorlar. Trump yönetimi yetkilileri federal kurumlar için etik kurallar getirdi Ocak ayında, diğer şeylerin yanı sıra, AI düzenlemesinin oluşturulmasına halkın katılımını teşvik eden. Bununla birlikte, yönergeler, Beyaz Saray'ın yüz tanıma teknolojisi üzerindeki yasaklar gibi aşırı derecede külfetli olduğunu düşündüğü düzenlemeleri de reddediyor.

Yakın zamanda yapılan bir analiz, hükümette daha fazla yapay zeka uzmanlığına ihtiyaç olduğunu ortaya çıkardı. A Şubat ayında yayınlanan ortak Stanford-NYU çalışması, "algoritmik yönetişim" fikrini inceliyor. veya hükümette artan bir rol oynayan yapay zeka. Bugün ABD federal hükümeti tarafından kullanılan yapay zekanın analizi, ajansların %40'ından fazlasının yapay zeka ile deneyler yaptığını, ancak bu çözümlerin yalnızca %15'inin oldukça gelişmiş kabul edilebileceğini ortaya koydu. Araştırmacılar, federal hükümetten yapay zeka sistemlerini denetlemek için daha fazla şirket içi yapay zeka yeteneği kiralamasını istiyor ve algoritmik yönetişimin kamu-özel teknoloji uçurumunu genişletebileceği ve kötü bir şekilde uygulanırsa kamu güvenini aşındırabileceği veya büyük şirketlere küçük işletmelere göre bir avantaj sağlayabileceği konusunda uyarıda bulunuyor. .

Denklemin bir diğer önemli kısmı, hükümetlerin yapay zeka girişimlerine ve teknoloji devlerine nasıl sözleşme vermeyi seçtikleridir. İlk olduğuna inanılan şeyde, geçen sonbaharda Dünya Ekonomik Forumu, Birleşik Krallık hükümeti ve Salesforce gibi işletmeler, bir dizi kural ve kılavuz oluşturmak için birlikte çalıştı. hizmet satın almaktan veya sözleşme yapmaktan sorumlu devlet çalışanları için.

Bu tür hükümet sözleşmeleri, izlenmesi gereken önemli bir alandır. Clearview AI ve Banjo gibi aşırı sağcı veya beyazların üstünlüğünü savunan gruplarla bağları olan işletmeler hükümetlere ve kolluk kuvvetlerine gözetim yazılımı satmak. Peter Thiel'in Palantir'i de son aylarda bir dizi kazançlı hükümet sözleşmesi topladı. Bu haftanın başlarında, Palmer Luckey'nin yine Thiel tarafından desteklenen Anduril'i 200 milyon dolar topladı ve gözetim donanımı ve yapay zeka kullanarak bir dijital sınır duvarı inşa etme ihalesini kazandı.

Yukarıda belirtilenler gibi etik belgeleri, her zaman "güvenilir yapay zekanın" önemini savunur. Bu ifadeye gözlerinizi devirirseniz, kesinlikle sizi suçlamıyorum. Gündemlerini ilerletmek için ilkeler satan hükümetlerin ve işletmelerin gözdesi. Beyaz Saray kullanıyor, Avrupa Komisyonu kullanıyor ve teknoloji devleri ve grupları ABD ordusuna etik konusunda danışmanlık yapmak Ancak etik ilkeleri eyleme dökme çabaları bir gün bu terime bir anlam ve ağırlık kazandırabilir.

Fidye yazılımı saldırılarına karşı koruma

Yerel yönetimler koronavirüse ve yapısal ırkçılığa yanıt vermek için çabalamaya başlamadan önce, fidye yazılımı saldırıları kendilerini istikrar ve şehir maliyesi için büyüyen bir başka tehdit haline getirdi.

2019 olarak, hastaneler, okullar ve hükümetler gibi halka açık kurumlara fidye yazılımı saldırıları fidye ödemek, dosyaları kurtarmak veya donanımı değiştirmek için kamu fonlarını sifonlayarak benzeri görülmemiş oranlarda arttı.

Şehirlerle çalışan güvenlik şirketleri, bu yılın başlarında VentureBeat'e, anormallik tespiti ve virüslü cihazları hızlı bir şekilde izole etme gibi yaklaşımlarla bu saldırılarla mücadele etmek için makine öğreniminin kullanıldığını söyledi.

Şehir borularında robot balık

Yapay zeka, fidye yazılımı saldırılarını önlemenin ötesinde, altyapıyı izleyerek, sızıntıları veya savunmasız şehir borularını patlamadan önce yakalayarak belediye hükümetlerinin feci mali yüklerden kaçınmasına yardımcı olabilir.

Güney Kaliforniya Üniversitesi'ndeki mühendisler, bu maliyetli sorunları çözmek için boru incelemeleri için bir robot yaptılar. Adlandırılmış pipefish, yangın hidrantları yoluyla şehir boru sistemlerine yüzebilir ve görüntü ve diğer verileri toplayabilir.

AI ile yüz tanıma koruması

İnsanları yüz tanıma sistemlerinden korumaya gelince, çabalar gömleklerden yüz boyamaya ve tam yüz projeksiyonlarına kadar uzanıyor.

EqualAI'ler proje yöneticisi Daniel Pedraza, VentureBeat'e verdiği demeçte, yüz tanımanın fotoğraflardaki konuları tanımlamasını zorlaştırmak için 2018'de MIT'nin Medya Laboratuvarında geliştirildi. Araç, yüz tanıma tespitinden kaçınmak ve gizliliği korumak için görüntüleri değiştirmek için rakip makine öğrenimini kullanır. EqualAIs, Facebook veya Twitter gibi halka açık forumlara yüklenen görüntülerin etrafında bir koruma katmanı oluşturarak yüz tanıma algoritmalarına saldırmanın teknik fizibilitesini göstermek için bir prototip olarak geliştirildi. Açık kaynak kodu ve projedeki diğer kaynaklar çevrimiçi olarak mevcuttur.

Diğer uygulamalar ve yapay zeka kişileri tanıyıp fotoğraflardan kaldırabilir veya kişilerin kimliğini korumak için yüzleri bulanıklaştırabilir. Charlotte'taki Kuzey Karolina Üniversitesi'nde yardımcı doçent Liyue Fan, şu çalışmayı yayınladı: ek koruma için görüntülere diferansiyel gizlilik uygular bir yüzü gizlemek için pikselleştirmeyi kullanırken. EqualAI'ler gibi teknolojiler geniş çapta benimsenirse, Clearview AI'yi gizliliğin sonu olarak nitelendiren gizlilik savunucularına bir umut ışığı verebilir.

Kongredeki milletvekilleri şu anda düşünüyor federal yetkililer tarafından yüz tanıma kullanımını yasaklayan ve teknolojiyi kullanmayı seçen eyalet veya yerel yönetimlere bir miktar fon sağlayan bir yasa tasarısı.

İster kalıcı bir yasak, ister geçici bir moratoryum veya asgari düzenleme fikrini destekleyin, yüz tanıma yasası demokratik toplumlar için zorunlu bir konudur. Irk önyargısı ve suç zanlılarının yanlış kimlik tespiti siyasi manzaradaki insanların yüz tanımanın bugün kamu kullanımına uygun olmadığı konusunda hemfikir olmaya başlamasının başlıca nedenleri bunlardır.

Dünyanın en büyük bilgisayar bilimci gruplarından biri olan ACM, bu hafta hükümetleri ve işletmeleri teknolojiyi kullanmayı bırakmaya çağırdı. Kongre üyeleri, teknolojinin protestolarda veya siyasi mitinglerde kullanılmasıyla ilgili endişelerini de dile getirdiler. Kongre huzurunda ifade veren uzmanlar, bu ortamlarda yüz tanımanın yaygınlaşması halinde, bunun insanların anayasal ifade özgürlüğü hakkını zayıflatma potansiyeline sahip olduğu konusunda uyarıda bulundular.

Protestocular ve diğerleri geçmişte tespit edilmekten kaçınmak için yüz maskeleri kullanmış olabilir, ancak COVID-19 döneminde, yüz tanıma sistemleri, maske takan insanları tanımada daha iyi hale geliyor.

Nihai düşünceler

Bu hikaye, tekno-çözümcülüğün her derde deva olmadığı ve yapay zekanın hem olumlu hem de olumsuz amaçlar için kullanılabileceği açık bir anlayışla yazılmıştır. Ve dizi yıllık olarak yayınlanıyor çünkü hepimiz yapay zekanın insanları güçlendirme ve daha güçlü topluluklar ve daha adil bir toplum oluşturmaya yardımcı olabileceği yollar hakkında hayaller kurmaya devam etmeyi hak ediyoruz.

Umarız bu yılki seçimi beğenmişsinizdir. Başka fikirleriniz varsa, lütfen tweet'e yorum yapmaktan çekinmeyin veya bu veya ilgili konulardaki hikaye önerilerini paylaşmak için khari@venturebeat.com'a e-posta gönderin.

Kaynak: http://feedproxy.google.com/~r/venturebeat/SZYF/~3/-NXtQAwz4u4/

spot_img

En Son İstihbarat

spot_img