Zephyrnet Logosu

FTC, yapay zeka ses klonlamasını engellemek için en iyi fikirlere nakit para sunuyor

Tarih:

Federal Ticaret Komisyonu (FTC), artan yapay zeka ses klonlama tehdidiyle mücadele etmek için en iyi çözüme 25,000 ABD doları ödül vaat ediyor.

Bazen ses deepfake'leri olarak da adlandırılan, kullanımı kolay ses klonlama olanakları sunan çevrimiçi hizmetlerin sayısı, üretken yapay zekanın ana akım haline gelmesinden bu yana hızla arttı ve siber saldırılarda kötüye kullanım potansiyeline ilişkin endişeleri artırdı.

Örneğin, yaygın bir tehdit, CEO'ların seslerini taklit ederek onları taklit etmeyi ve finans departmanına bir saldırganın hesabına para aktarma talimatı vermeyi içerebilir. Arkadaşlar ve aileler de sevdiklerine para göndermeleri için kandırılabilir ve performans sanatçıları Teknoloji olgunlaşmaya devam ederse geçim kaynakları tehlikeye girebilir.

İlgilenen tarafların, esas olarak teknolojinin önlenmesi, izlenmesi ve değerlendirilmesine odaklanarak, yapay zeka tabanlı ses klonlama dolandırıcılığının ele alınmasına yardımcı olacak fikirlerini 12 Ocak'a kadar sunmaları gerekiyor.

FTC, "Bu çaba, riskleri azaltmaya yönelik fikirlerin ileriye taşınmasına yardımcı olabilir; tüketicileri, yaratıcı profesyonelleri ve küçük işletmeleri, zarar tüketiciye ulaşmadan önce ses klonlamanın zararlarına karşı koruyabilir." şuraya

"Ayrıca tüketici düzeyindeki riskleri azaltmaya yönelik fikirlerin geliştirilmesine de yardımcı olabilir. Uygulanabilir fikirler ortaya çıkmazsa, bu durum politika yapıcılara, pazardaki uygulamaların zararlı gelişimini önleme zorluğu göz önüne alındığında, bu teknolojinin kullanımı konusunda daha sıkı sınırlamalar getirmeleri gerektiği konusunda kritik ve erken bir uyarı gönderecektir."

Başvurular, diğer tedbirlerin yanı sıra, yürütme ve idarenin ne kadar mümkün olabileceği, teknolojik değişikliklere ne kadar dayanıklı olduğu ve şirketlere sorumluluk ve sorumluluğun nasıl yükleneceğini ne kadar dikkatli değerlendirdikleri temel alınarak değerlendirilecektir.

Sunulan en büyük ödül 25,000 $'dır ve ustaca bir çözümün sahip olabileceği potansiyel geniş uygulamalar göz önüne alındığında bu bir altın madeni gibi görünmüyor.

İkincilere ayrıca 4,000 Dolar verilecek, üç mansiyonun her birine 2,000 Dolar verilecek ve 10 veya daha fazla kişiden oluşan kuruluşlara nakitsiz tanınma ödülü verilecek.

Yapay zeka ses istismarı iş başında

Yapay zeka ses klonlamanın etkinliği geçtiğimiz yıl tekrarlanan vakalarda kanıtlandı. Slovak güvenlik mağazası ESET'teki uzmanlar gösterdi Yukarıda adı geçen sahte CEO örneğinin nasıl çözülebileceği.

Aslında bu, üretken yapay zekanın ortalama bir insanın eline geçmesinden önce de yıllardır bir sorundu. Birleşik Krallık'ta bir enerji şirketi 243,000 dolardan kurtuldu 2019'da CEO'suna Macar bir tedarikçiye büyük meblağ gönderme talimatı verildikten sonra.

Bir New York Times raporYine önceki 12 ayda finans sektörünü başarıyla hedef alan ve bankaları gerçek müşteri olduğuna inandıkları kişilerden para aktarmaya kandıran bir dizi vakayı ayrıntılı olarak anlattı. Reg benzerlerini de bildirdi BAE'de saldırılar sürüyor 2021 kadar geri.

Romantik dolandırıcılıklar da çok yaygın; bir İngiliz bir başkasına aşık oluyor Kevin Costner'ı kandırdıve suçlular da bu eylemleri gerçekleştirmenin ötesinde olmadıklarını gösterdiler “aile acil durumu” dolandırıcılıkları – örneğin, çocuklarının klonlanmış sesleriyle ebeveynleri hedef alarak kefalet bedelini ödemek için para talep edenler.

Daha uğursuz örnekler Annelerin, büyük fidye talep eden "kaçıranlar" tarafından rehin tutulan kızlarından iddia edildiği gibi telefonlar aldığını gördük.

Ses klonlama, bir yapay zeka modeline, bir kişinin sesinin sesini, tonunu, temposunu, tonunu ve diğer nüanslarını anlayacak kadar eğitim verisi besleyerek mümkün olur. Ünlülerin ve diğer kamuoyuna mal olmuş kişilerin, çevrimiçi ortamda bulunan ses kayıtlarının sayısı göz önüne alındığında, bu saldırılara karşı ciddi risk altında oldukları düşünülüyor.

Sosyal medya ve video içeriği oluşturma kültürünün yükselişiyle birlikte, ünlü olmayan birçok kişi ve hatta çocuklar da bir modeli etkili bir şekilde eğitmek için yeterli çevrimiçi materyale sahip.

Kaspersky araştırmacıları geçen yıl yapay zeka ses klonlamasındaki artışı incelediler ve yapay zeka teknolojisini kullanarak klonlanmış sesler oluşturabilen, ücretsiz olarak kullanılabilen çok çeşitli, açık kaynaklı araçlar keşfettiler. Ancak ikna edici bir klonu çalışır hale getirmek için biraz Python bilgisi ve klonlayıcının biraz müdahale etmesi gerektiğini ileri sürdüler.

Ancak ücretli teklifler çok daha etkili olma eğilimindedir. Araştırmacıların işaret ettiği Microsoft'un VALL-E modeli Bunun, eğitim verileri olarak kullanılan yalnızca üç saniyelik ses sesiyle düzgün bir klon oluşturabileceği iddia ediliyor.

Ücretsiz olanlardan daha iyi çalışan başka ücretli çözümler de mevcut ancak bunlar henüz geliştirme aşamasında, dolayısıyla bu modellerin doğruluğunun ve etkililiğinin zaman içinde artmasını bekleyebiliriz. ®

spot_img

En Son İstihbarat

spot_img