Logo Zephyrnet

Cara Menemukan DeepFake di tahun 2021

Tanggal:

Gambar profil Louis Bouchard Hacker Noon

@apaLouis Bouchard

Saya menjelaskan istilah dan berita Kecerdasan Buatan kepada non-ahli.

Ingin tahu tentang cara terbaik untuk menemukan deepfake? Dalam video ini, pelajari tentang terobosan teknologi Angkatan Darat AS yang menggunakan kecerdasan buatan untuk menemukan deepfake.

Tonton video

Referensi

Baca artikel selengkapnya: https://www.louisbouchard.ai/spot-deepfakes

Uji kapasitas deteksi deepfake Anda: https://detectfakes.media.mit.edu/

DeepFakeHop: Chen, Hong-Shuo et al., (2021), “DefakeHop: Detektor Deepfake Kinerja Tinggi Ringan.” ArXiv abs/2103.06929

Transformasi Saab: Kuo, C.-C. Jay et al., (2019), "Jaringan Saraf Konvolusional yang Dapat Diinterpretasikan melalui Desain Feedforward." J. komuni. Image Represent.►OpenFace 2.0: T. Baltrusaitis, A. Zadeh, YC Lim dan L. Morency, “OpenFace 2.0: Facial Behavior Analysis Toolkit,” Konferensi Internasional IEEE ke-2018 13 tentang Pengenalan Wajah & Isyarat Otomatis (FG 2018), 2018, hlm. 59-66, doi: 10.1109/FG.2018.00019.

Transkrip Video

00:00

Sementara mereka sepertinya selalu ada di sana, deepfake realistis pertama tidak muncul

00:05

sampai 2017

00:07

Ini berubah dari gambar palsu pertama yang dibuat secara otomatis menjadi gambar hari ini

00:13

salinan identik seseorang di video, dengan suara.

00:16

Kenyataannya adalah kita tidak dapat melihat perbedaan antara video atau gambar asli dan deepfake

00:22

lagi.

00:23

Bagaimana kita bisa tahu apa yang nyata dari apa yang tidak?

00:25

Bagaimana file audio atau file video dapat digunakan di pengadilan sebagai bukti jika AI dapat sepenuhnya menghasilkan?

00:32

mereka?

00:33

Nah, tulisan baru ini mungkin bisa memberikan jawaban atas pertanyaan tersebut. Dan jawabannya di sini mungkin lagi

00:37

menjadi penggunaan kecerdasan buatan.

00:40

Pepatah “Saya akan percaya ketika saya akan melihatnya” mungkin akan segera berubah menjadi “Saya akan percaya ketika

00:45

AI menyuruhku untuk mempercayainya…”

00:47

Saya akan berasumsi bahwa Anda semua telah melihat deepfake dan tahu sedikit tentang mereka.

00:51

Yang akan cukup untuk artikel ini.

00:53

Untuk informasi lebih lanjut tentang bagaimana mereka dihasilkan, saya mengundang Anda untuk menonton video yang saya buat menjelaskan

00:58

deepfake tepat di bawah, karena video ini akan fokus pada cara mengenalinya.

01:04

Lebih tepatnya, saya akan meliput makalah baru oleh Laboratorium Penelitian Angkatan Darat DEVCOM USA berjudul

01:09

“DEFAKEHOP: DETEKTOR DEEPFAKE BERKINERJA TINGGI RINGAN.”

01:14

Memang, mereka dapat mendeteksi deepfake dengan akurasi lebih dari 90% di semua kumpulan data dan bahkan mencapai

01:20

Akurasi 100% dalam beberapa set data benchmark.

01:24

Yang lebih luar biasa adalah ukuran model deteksi mereka.

01:27

Seperti yang Anda lihat, model DeFakeHop ini hanya memiliki 40 ribu parameter, sedangkan yang lainnya

01:33

teknik menghasilkan akurasi yang jauh lebih buruk memiliki sekitar 20 juta!

01:37

Ini berarti model mereka 500 RATUS kali lebih kecil sementara mengungguli yang sebelumnya

01:43

teknik-teknik mutakhir.

01:44

Ini memungkinkan model berjalan dengan cepat di ponsel Anda dan memungkinkan Anda untuk mendeteksi secara mendalam

01:49

palsu di mana saja.

01:50

Anda mungkin berpikir bahwa Anda dapat membedakan antara gambar asli atau palsu, tapi

01:54

jika Anda ingat penelitian yang saya bagikan beberapa minggu yang lalu, itu jelas menunjukkan bahwa sekitar

01:59

50 persen peserta gagal.

02:01

Itu pada dasarnya tebakan acak apakah gambar itu palsu atau tidak.

02:05

Ada situs web dari MIT tempat Anda dapat menguji kemampuan Anda untuk menemukan deefak jika Anda mau

02:10

mau.

02:11

Setelah mencobanya sendiri, saya dapat mengatakan itu cukup menyenangkan untuk dilakukan.

02:14

Ada file audio, video, gambar, dll.

02:17

Linknya ada di deskripsi di bawah.

02:19

Jika Anda mencobanya, beri tahu saya seberapa baik Anda melakukannya!

02:21

Dan jika Anda mengetahui aplikasi menyenangkan lainnya untuk menguji diri sendiri atau membantu penelitian dengan mencoba yang terbaik

02:26

untuk menemukan deepfake, silakan tautkan di komentar.

02:29

Saya ingin mencobanya!

02:31

Sekarang, jika kita kembali ke makalah yang mampu mendeteksi mereka jauh lebih baik daripada yang kita bisa, pertanyaannya

02:36

adalah: bagaimana model pembelajaran mesin kecil ini dapat mencapai itu sementara manusia tidak?

02:42

DeepFakeHop bekerja dalam empat langkah.

02:44

Langkah 1:

02:45

Pada awalnya, mereka menggunakan model lain untuk mengekstrak 68 landmark wajah yang berbeda dari setiap video

02:50

bingkai.

02:51

68 poin ini diekstraksi untuk memahami di mana wajah berada, lebih baru, mengarahkan, dan mengubah ukuran

02:57

itu untuk membuatnya lebih konsisten, dan kemudian mengekstrak bagian wajah tertentu dari

03:02

gambar.

03:03

Ini adalah "tambalan" dari gambar yang akan kami kirim ke jaringan kami, yang berisi individu tertentu

03:09

fitur wajah seperti mata, mulut, hidung.

03:12

Hal ini dilakukan dengan menggunakan model lain yang disebut OpenFace 2.0.

03:16

Itu dapat secara akurat melakukan deteksi landmark wajah, estimasi pose kepala, tindakan wajah

03:22

pengenalan unit, dan estimasi pandangan mata secara real-time.

03:26

Ini semua adalah tambalan kecil 32 kali 32 yang semuanya akan dikirim ke jaringan yang sebenarnya

03:32

dengan satu.

03:33

Ini membuat model menjadi sangat efisien karena hanya menangani beberapa gambar kecil

03:38

alih-alih gambar penuh.

03:40

Detail lebih lanjut tentang OpenFace2.0 dapat ditemukan di referensi di bawah ini jika Anda penasaran

03:45

tentang hal itu.

03:46

Langkah 2 hingga 4 (kiri ke kanan, biru, hijau, oranye):

03:47

Lebih tepatnya, tambalan dikirim ke unit PixelhHop++ pertama bernama Hop-1, seperti yang Anda

03:53

bisa melihat.

03:54

Mewakili langkah satu dengan warna biru.

03:55

Ini adalah algoritma yang disebut transformasi Saab untuk mengurangi dimensi.

03:58

Ini akan mengambil gambar 32 kali 32 dan menguranginya ke versi gambar yang diperkecil tetapi

04:04

dengan beberapa saluran yang mewakili responsnya dari berbagai filter yang dipelajari dari Saab

04:10

mengubah.

04:11

Anda dapat melihat transformasi Saab sebagai proses konvolusi, di mana kernel ditemukan menggunakan

04:16

algoritma pengurangan dimensi PCA menggantikan kebutuhan backpropagation untuk mempelajari ini

04:21

bobot.

04:22

Saya akan kembali ke algoritma pengurangan dimensi PCA dalam satu menit seperti yang diulang dalam

04:26

tahap selanjutnya.

04:27

Filter ini dioptimalkan untuk mewakili frekuensi yang berbeda dalam gambar, pada dasarnya

04:32

diaktifkan dengan berbagai tingkat detail.

04:35

Transformasi Saab terbukti bekerja dengan baik melawan serangan musuh dibandingkan dengan dasar

04:40

konvolusi dilatih dengan backpropagation.

04:43

Anda juga dapat menemukan informasi lebih lanjut tentang transformasi Saab dalam referensi di bawah ini.

04:47

Jika Anda tidak terbiasa dengan cara kerja konvolusi, saya sangat mengundang Anda untuk menonton video saya

04:52

membuat memperkenalkan mereka:

04:56

Saya mengatakan transformasi Saab bekerja dengan baik pada serangan permusuhan.

05:00

Serangan permusuhan ini terjadi ketika kita "menyerang" gambar dengan mengubah beberapa piksel atau menambahkan

05:06

kebisingan yang tidak dapat dilihat manusia untuk mengubah hasil pemrosesan model pembelajaran mesin

05:11

foto.

05:12

Jadi untuk menyederhanakan, pada dasarnya kita dapat melihat Unit PixelHop++ ini sebagai konvolusi 3 kali 3 biasa

05:19

di sini karena kita tidak melihat proses pelatihan.

05:21

Tentu saja, ini bekerja sedikit berbeda, tetapi itu akan membuat penjelasannya jauh lebih mudah

05:26

karena prosesnya sebanding.

05:28

Kemudian, langkah "Hop" diulang tiga kali untuk mendapatkan versi yang lebih kecil dan lebih kecil dari

05:33

gambar dengan informasi umum terkonsentrasi dan lebih banyak saluran.

05:37

Saluran ini hanyalah keluaran, atau tanggapan, dari gambar masukan dengan filter yang

05:42

bereaksi secara berbeda tergantung pada tingkat detail pada gambar, seperti yang saya katakan sebelumnya.

05:48

Satu saluran baru per filter yang digunakan.

05:50

Dengan demikian, kami memperoleh berbagai hasil yang memberi kami informasi yang tepat tentang isi gambar,

05:55

tetapi hasil ini lebih kecil dan lebih kecil yang mengandung lebih sedikit detail spasial yang unik untuk

06:00

gambar yang tepat dikirim dalam jaringan, dan karena itu memiliki informasi yang lebih umum dan berguna

06:06

berkaitan dengan apa yang sebenarnya terkandung dalam gambar tersebut.

06:09

Beberapa gambar pertama masih relatif besar, mulai dari 32 kali 32, menjadi yang pertama

06:15

ukuran tambalan dan dengan demikian berisi semua detail.

06:18

Kemudian, turun menjadi 15 kali 15, dan akhirnya menjadi 7 kali 7 gambar, artinya kita sudah dekat

06:24

ke nol informasi spasial pada akhirnya. Gambar 15 kali 15 hanya akan terlihat buram

06:29

versi gambar awal tetapi masih mengandung beberapa informasi spasial, sedangkan 7 oleh 7

06:35

gambar pada dasarnya akan menjadi versi gambar yang sangat umum dan luas dengan hampir tidak

06:40

informasi spasial sama sekali.

06:43

Jadi seperti jaringan saraf convolutional, semakin dalam kita, semakin banyak saluran yang kita miliki

06:48

artinya kita memiliki lebih banyak respons filter yang bereaksi terhadap rangsangan yang berbeda, tetapi semakin kecil

06:53

mereka masing-masing, diakhiri dengan gambar ukuran 5x5.

06:56

Memungkinkan kita untuk memiliki pandangan yang lebih luas dalam banyak hal, menyimpan banyak informasi berharga yang unik

07:02

bahkan dengan versi gambar yang lebih kecil.

07:05

Gambar menjadi lebih kecil karena setiap unit PixelHop diikuti oleh max-pooling

07:12

langkah.

07:13

Mereka hanya mengambil nilai maksimum setiap kuadrat dua kali dua piksel, mengurangi

07:17

ukuran gambar dengan faktor empat pada setiap langkah.

07:20

Kemudian, seperti yang Anda lihat dalam model lengkap yang ditunjukkan di atas, output dari setiap lapisan max-pooling

07:24

dikirim untuk pengurangan dimensi lebih lanjut menggunakan algoritma PCA.

07:26

Yang merupakan langkah ketiga, berwarna hijau.

07:28

Algoritma PCA terutama mengambil dimensi saat ini, misalnya, 15 kali 15 di sini XNUMX

07:34

langkah pertama, dan meminimalkan itu sambil mempertahankan setidaknya 90% dari intensitas input

07:40

gambar.

07:41

Berikut adalah contoh yang sangat sederhana tentang bagaimana PCA dapat mengurangi dimensi, di mana dua dimensi

07:45

titik kucing dan anjing direduksi menjadi satu dimensi pada garis, memungkinkan kita untuk menambahkan a

07:51

ambang batas dan dengan mudah membangun pengklasifikasi.

07:54

Setiap hop memberi kita masing-masing 45, 30, dan 5 parameter per saluran alih-alih memiliki

08:00

gambar berukuran 15 kali 15, 7 kali 7, dan 3 kali 3, yang akan memberi kita urutan yang sama 225,

08:07

49, dan 9 parameter.

08:11

Ini adalah representasi yang jauh lebih ringkas sambil memaksimalkan kualitas informasi

08:16

mengandung.

08:17

Semua langkah ini digunakan untuk memadatkan informasi dan membuat jaringan menjadi super cepat.

08:22

Anda dapat melihat ini sebagai memeras semua jus bermanfaat pada tingkat detail yang berbeda

08:27

gambar yang dipotong untuk akhirnya memutuskan apakah itu palsu atau tidak, menggunakan detail dan umum

08:32

informasi dalam proses pengambilan keputusan (langkah 4 berwarna oranye).

08:35

Saya senang melihat bahwa penelitian dalam melawan deepfake ini juga berkembang, dan saya

08:39

bersemangat untuk melihat apa yang akan terjadi di masa depan dengan semua itu.

08:43

Beri tahu saya di komentar apa yang menurut Anda akan menjadi konsekuensi dan kekhawatiran utama

08:47

tentang deepfake.

08:48

Apakah itu akan mempengaruhi hukum, politik, perusahaan, selebriti, orang biasa?

08:53

Yah, hampir semua orang…

08:55

Mari berdiskusi untuk berbagi kesadaran dan mewartakan agar berhati-hati dan itu

09:00

kita tidak bisa percaya apa yang kita lihat lagi, sayangnya.

09:02

Ini adalah teknologi baru yang luar biasa dan berbahaya.

09:06

Tolong, jangan menyalahgunakan teknologi ini dan tetap benar secara etis.

09:10

Tujuannya di sini adalah untuk membantu meningkatkan teknologi ini dan tidak menggunakannya untuk alasan yang salah.         

Tag

Bergabunglah dengan Hacker Noon

Buat akun gratis Anda untuk membuka pengalaman membaca kustom Anda.

Coinsmart. Beste Bitcoin-Börse di Europa
Sumber: https://hackernoon.com/how-to-spot-a-deepfake-in-2021-yd1v3539?source=rss

tempat_img

Intelijen Terbaru

tempat_img