Zephyrnet Logosu

Yapay zeka sahte haberleri düzeltebilir mi?

Tarih:

Yarasa kanatlı insansılar, mavi derili keçiler, iki ayaklı kuyruksuz kunduzlar, safirden yapılmış bir tapınak - bunlar, tanınmış bir İngiliz gökbilimci olan Sir John Herschel'in teleskopunu Güney Afrika'daki bir gözlemevinden gökyüzüne doğru tuttuğunda tanık olduğu manzaralardan bazılarıydı . Ya da en azından New York güneş 1835'te bir dizi hikayede bildirildi.

Raporlar öyle bir öfke uyandırdı ki, gazetenin tirajı iki kattan fazla artarak 8,000'den 19,000'in üzerine çıktı. Birden, raporları okuyan herkes, Ay'da gelişen bir yarasa adam kolonisi olduğuna inandı.

Küçük bir ayrıntı dışında hiçbiri doğru değildi. Hikayeler, Richard Adams Locke tarafından uydurulmuştu. güneşeditör.

Olay tarihe geçti Büyük Ay Aldatmacasıama bunların hepsi bugün gerçekleşecek olsaydı, buna başka bir şey derdik: sahte haberler!

Donald Trump, terimi icat ettiğini düşünebilir son birkaç yıldır popülaritesi arttı, ancak bu gerçek olmaya yakın bile değil. Sahte haberler yıllardır ortalıkta dolaşıyor, ancak şimdi bunun için her zamankinden daha fazla endişeleniyoruz. Çoğunlukla zararsızdan nasıl geçtik Büyük Ay Aldatmacası tarafından oluşturulan çok ciddi tehdide Pizzagate skandalı?

İnternetin hızı ve ölçeği onu yüz kat daha kötü hale getirdi. New York olarak Zamanlar açıklar, içinde üç bölümlük film serisi bu Kasım ayında yayımlanan dezenformasyon bir virüs gibi yayılıyor.

Peki bu virüsün yayılmasını nasıl durduracaksınız?

Facebook CEO'su Mark Zuckerberg'e sorarsanız, muhtemelen Amerikan Kongresine söyledi bu yılın başlarında: Yapay Zeka bunu düzeltecek.

Ama yapay zekanın sahte haberleri düzeltebileceği doğru mu? Bir makinenin bir şeyin doğru mu yanlış mı olduğunu otomatik olarak doğrulaması mümkün olacak mı? Ve daha da önemlisi, AI ilk etapta yaratılmasına yardımcı olduğu bir sorunu çözebilir mi?

AI, bir sorunumuz var

Yapay zeka ve dezenformasyon hakkında çok şey yazıldı, ancak yapay zekanın dünyadaki sahte haberlerin üretimi ve dağıtımındaki rolü hakkında yeterince şey söyleyemeyiz.

Future of Life Institute Medya ve Sosyal Yardım Direktörü Ariel Conn şöyle açıklıyor: "Birisinin söylemediği bir şey söylemiş gibi görünen videoları değiştirebilecekleri programlar oluşturan yapay zeka araştırmacıları bu teknolojinin etik sonuçları. "

Bizi daha iyi tanımak için Bu videoyu örneğin eski ABD Başkanı Barack Obama'nın. RadioLab adlı bir bölüm için Güney Kaliforniya Üniversitesi'nden araştırmacılar tarafından bir deney olarak üretildi. "Flaş Haber." Bunu bilgisayarınızda veya telefonunuzda görseydiniz, inanır mıydınız?

RadioLab bölümü Temmuz 2017'de yayınlandı. Sadece birkaç ay sonra, Nisan 2018'e hızlı bir şekilde giderseniz geliştirilmiş versiyon, bu sefer Buzzfeed'de kamu hizmeti duyurusu olarak yayınlandı. Anlaşıldı: Obama, Trump'a "tam bir pislik" demedi. Oscar ödüllü film yapımcısı Jordan Peele, Obama'nın en ikna edici sesiyle yaptı. Sahte ses, eski başkanın gerçek video görüntüleri üzerine ikna edici bir şekilde katmanlandırılmıştı.

Bu videoları oluşturmak için kullanılan algoritmik makine öğrenimi teknolojisine deepfake denir ve herkesin hemen hemen her insanın son derece gerçekçi bir simülasyonunu oluşturmasına izin verir (video ve ses kayıtlarınız olduğu sürece).

Ancak deepfake'lerle ilgili gerçek sorun, insanların bu teknolojiyi kullanmayı bırakmasıdır. Nicolas Cage'i rastgele filmlere ekle ve yukarıda gördüğümüz gibi, asla yapmadıkları şeyleri söyleyen siyasi liderlerin videolarını çekmeye başlayın. Ariel Conn'ın dediği gibi: "İnsanları manipüle etmek çok daha kolay olacak ve bu son derece endişe verici."

Öyleyse AI tüm bunların neresinde? Tedavi mi yoksa hastalık mı?

yapay zeka-sahte-haber göstergesi

Bozuk haberleri düzeltme

Yapay Zekanın sahte haberleri düzeltmemize yardım edip edemeyeceğini bilmek için önce makine öğreniminin nasıl çalıştığını anlamamız gerekiyor.

Makine öğrenimi, bilgisayarların verilerden öğrenmesini, kalıpları tanımlamasını ve minimum insan müdahalesi ile kararlar almasını sağlama bilimidir. Buradaki fikir, makinelerin performanslarını zaman içinde iyileştirmesi ve giderek daha fazla otonom hale gelmesidir.

Dolayısıyla, bunu dezenformasyona karşı mücadelemize uygulamak için, bir içerik parçasının doğru mu yanlış mı olduğunu doğru bir şekilde belirlemek için verileri analiz eden bir teknoloji geliştirmemiz gerekir. Ancak, aralarında Facebook'un Avrupa Yapay Zeka Araştırmaları Direktörü Antoine Bordes de bulunan uzmanlara göre, bunu söylemek yapmaktan daha kolay:

"Bir görüntüdeki tuhaf bir şeyi tanımakla ilgiliyse, bu bir makinenin yapabileceği bir şeydir, ancak bir metnin doğru mu yanlış mı olduğunu yorumlamakla ilgiliyse, bu çok, çok, daha derin. İşaretlemek çok daha karmaşık ve bu henüz bir makinenin yapabileceği bir şey değil. "

Neden? Çünkü makineler, "anlama, sağduyu ve bir şeyleri bağlama oturtma" gibi temel insan becerilerinden yoksundur.

Yine de bu, araştırmacıların bu sorunu çözmek için yorulmadan çalışmadıkları anlamına gelmez. Bu konudaki çalışmaların sayısı son birkaç yılda önemli ölçüde arttı ve bazılarının aslında oldukça verimli olduğu kanıtlandı.

Sahte haberleri tespit etmek için en iyi yapay zeka

In MIT Technology ReviewKatar Bilgi İşlem Araştırma Enstitüsü'nde kıdemli bir bilim insanı ve medya kuruluşlarının güvenilirliği hakkında yeni bir araştırma yapan araştırmacılardan biri olan Preslav Nakov, tüm şüphelere rağmen, sahte haberleri tespit etmek için makinelerin kullanılması konusunda iyimser olduğunu yazıyor. Muhtemelen yakın zamanda olmayacağını da aynı şekilde tahmin ediyor.

Nakov'un yürütülmesine yardımcı olduğu çalışmada, makinelerin insan müdahalesi olmadan analiz edebilecekleri değişkenleri kullanarak sistemlerini eğitiyorlardı. Başlık yapısı ve kelime çeşitliliğinin içerik analizi yaptılar; web trafiğini değerlendirdi; sosyal medyaya katılımı ölçerek medya kuruluşlarının etkisini değerlendirdi.

Deneyin sonunda, en iyi modelleri medya çıkışlarını zamanın yalnızca% 65'inde "düşük", "orta" veya "yüksek" güvenilirlikle doğru bir şekilde etiketledi.

Ancak medya kuruluşlarının güvenilirliğini analiz etmek ve sahte haberleri tespit etmek hassas bir danstır. Gazeteciler, her gün okuduğumuz haberleri üretmek için en azından titiz metodolojileri ve davranış kurallarını izlerler veya en azından yapmaları beklenir. Ve hiçbir bilgisayar onu anlayamaz.

yapay-zeka-sahte-haber-robot

Dünyanın insanları ve makineleri birleşin!

"Yapay zekanın sahte haberleri tespit etmede gittikçe daha faydalı olacağına inanıyorum, ancak aynı zamanda insan oyununu da geliştirmemiz gerekiyor. Sonunda, makineler ve insanlar arasında bir ekip çalışması olacak. "

Facebook AI Araştırma Laboratuvarı Avrupa Direktörü Antoine Bordes

İnsan ve yapay zekanın en iyilerini birleştirmek en iyi umudumuz olabilir. Makineler bize hız ve ölçeklenebilirlik sağlarken, insanlar masaya anlayış getirir - ve bununla birlikte, bir metnin doğruluğunu değerlendirirken bağlam ve nüansı dikkate alma yeteneği. Bu ayrıca sisteme daha fazla veri beslememize ve zaman içinde performansını iyileştirmemize olanak tanır.

Bununla birlikte, gerçeğe ulaşmak için katı kuralları izleyen inanılmaz derecede insan merkezli bir faaliyet olan gazetecilikten de bahsettiğimiz gerçeğini vurgulamak önemlidir. Doğruluk kontrol platformlarının bu sahte haber bulmacasında büyük bir parça olmasının nedeni budur.

ABD'deki en tanınmış gerçek kontrol web sitelerinden biri olan Politifact'in İcra Direktörü Aaron Sharockman ile yapay zekanın gelecekte oynayacağı rol ve Truth-o-Meter'a güç veren metodoloji hakkında konuştuk.

Her gün basılı veya yayın amaçlı gazetecilikteki en önemli hikayeleri kontrol edilebilir gerçekler için gözden geçiren 11 tam zamanlı gazeteci var.

Oradan, yaptığımız ilk şey konuşmacıya bunun doğru olduğuna dair kanıtınızın ne olduğunu sormaktır. Öyleyse, Birleşik Devletler'de tutuklanırsanız, suçlu olduğunuz kanıtlanana kadar masumsunuzdur. Burada, masum olduğu kanıtlanana kadar biraz suçlusun. Bir şey söylerseniz, onu destekleyecek, destekleyecek gerçeklere sahip olmalısınız. "

Daha sonra, kayda geçmek isteyen bağımsız ve uzman kaynaklara güvenirler. “Oradan, bir yazar bir karar veya bir derecelendirme öneriyor. Kullandığımız altı derecelendirme var, en büyük yalanımız olan gerçek ve pantolonun üzerinde yanlış arasında. Ama sonuçta yazar derecelendirmeye karar veremez. Olan şu ki, üç editörden oluşan bir panele gidiyor ve onlar jüri olarak oturuyor. "

Yapay zeka bunun yerini alabilir mi?

Aaron Sharockman'a göre, bir makine algoritmalarını etrafından alamaz, ancak daha verimli olmasına ve bu bilgiyi daha fazla insana göndermesine yardımcı olabilir:

“İnsanların her zaman gerçekleri kontrol etmeye dahil olması, insanların neyin doğru olup olmadığını anlamalarına yardımcı olması gerekir. Nihayetinde çok kişi merkezli bir sistemdir. Bununla birlikte, bence bilgisayarların süreci çok daha verimli hale getirmeye yardımcı olabileceğini düşünüyorum. Öyleyse sabırsızlıkla beklediğim şey, bilgisayarlar 11 doğruluk denetleyicimizden biri olan doğruluk denetleyicimi nasıl alıp yazdıkları doğruluk kontrolü miktarını ikiye katlama becerisine sahip olabilir mi? "

Sharockman daha fazla açıklıyor:

“Bilgisayarlar doğruluk kontrolü yazma süresini altı saatten üç saate kadar nasıl kısaltabilir? Ve ikinci olarak, bilgisayarlar ve yapay zeka doğruluk kontrolümüzün erişimini nasıl artırabilir? Bu iki şekilde çalışır. Biri basit yol, bir doğruluk kontrolü yayınlıyoruz, herkesin bunu gördüğünden nasıl emin olabiliriz? İkincisi, ne yaparsak yapalım yanlış bilginin yayılmaya devam etmesi, doğruluk kontrolü yanlış bilginin yayıldığı yere nasıl yakın durmaya çalışabilir? Bu, kendisini başka bir blogda tekrar ettiği anlamına gelse de, doğruluk kontrolü o bloga nasıl bağlanabilir? Twitter'da kötü bir bağlantı paylaşan birine yanıt veren bir Twitter Botu mu? Bu yüzden bence bunlar beni en çok heyecanlandıran şeyler. Ve onları ufkumda görebiliyorum; Geleceklerini hissedebiliyorum. "

Gerçekliği yakalamak

Sonunda, sanki hala gerçeği yakalıyormuşuz gibi geliyor. Simülasyon ile gerçeklik arasındaki çizgi bulanıklaşmaya devam ettikçe, bu teknolojinin neresinde durduğumuzu ve gerçeği dikte edip etmeyeceğini tam olarak bilmemiz gerekiyor.

Future of Life Institute'tan Ariel Conn, henüz bir cevabımız olduğundan o kadar emin değil. Bunun, karşılaştığımız diğer tüm tehditlere çok benzeyeceğini hissediyorum. Siber güvenlik ile neredeyse tamamen yetişme durumumuz var. Ancak bu tehditlerden bazılarının ne olduğunu daha iyi hissettiğimizde, bizi siber tehditlere karşı korumak için oldukça iyi programlar oluşturabiliriz. Bu yüzden yapay zekanın aynı olacağını düşünüyorum, özellikle başlangıçta muhtemelen yetişiyor olacak. Ama umarım daha proaktif hale gelir. "

Bugün, bilgi üzerine mücadele tartışmanın merkezinde ve zarar gerçektir. Bir uzaylı istilası korkusunu körüklemiyor olabiliriz - yani, bu konuda ilk tweet atan kişinin kim olacağı konusunda iyi bir fikrim var - ama hayatlarımız, demokrasimiz ve geleceğimiz. Teknoloji bizi yalnızca bir parçaya götürecek: Kendi kötü alışkanlıklarımızı kontrol etmemiz gerekecek.

Kaynak: https://unbabel.com/blog/art artificial-intelligence-fake-news/

spot_img

En Son İstihbarat

spot_img