Ingin tahu tentang cara terbaik untuk menemukan deepfake? Dalam video ini, pelajari tentang terobosan teknologi Angkatan Darat AS yang menggunakan kecerdasan buatan untuk menemukan deepfake.
Tonton video
Referensi
Baca artikel selengkapnya: https://www.louisbouchard.ai/spot-deepfakes
Uji kapasitas deteksi deepfake Anda: https://detectfakes.media.mit.edu/
DeepFakeHop: Chen, Hong-Shuo et al., (2021), “DefakeHop: Detektor Deepfake Kinerja Tinggi Ringan.” ArXiv abs/2103.06929
Transformasi Saab: Kuo, C.-C. Jay et al., (2019), "Jaringan Saraf Konvolusional yang Dapat Diinterpretasikan melalui Desain Feedforward." J. komuni. Image Represent.►OpenFace 2.0: T. Baltrusaitis, A. Zadeh, YC Lim dan L. Morency, “OpenFace 2.0: Facial Behavior Analysis Toolkit,” Konferensi Internasional IEEE ke-2018 13 tentang Pengenalan Wajah & Isyarat Otomatis (FG 2018), 2018, hlm. 59-66, doi: 10.1109/FG.2018.00019.
Transkrip Video
00:00
Sementara mereka sepertinya selalu ada di sana, deepfake realistis pertama tidak muncul
00:05
sampai 2017
00:07
Ini berubah dari gambar palsu pertama yang dibuat secara otomatis menjadi gambar hari ini
00:13
salinan identik seseorang di video, dengan suara.
00:16
Kenyataannya adalah kita tidak dapat melihat perbedaan antara video atau gambar asli dan deepfake
00:22
lagi.
00:23
Bagaimana kita bisa tahu apa yang nyata dari apa yang tidak?
00:25
Bagaimana file audio atau file video dapat digunakan di pengadilan sebagai bukti jika AI dapat sepenuhnya menghasilkan?
00:32
mereka?
00:33
Nah, tulisan baru ini mungkin bisa memberikan jawaban atas pertanyaan tersebut. Dan jawabannya di sini mungkin lagi
00:37
menjadi penggunaan kecerdasan buatan.
00:40
Pepatah “Saya akan percaya ketika saya akan melihatnya” mungkin akan segera berubah menjadi “Saya akan percaya ketika
00:45
AI menyuruhku untuk mempercayainya…”
00:47
Saya akan berasumsi bahwa Anda semua telah melihat deepfake dan tahu sedikit tentang mereka.
00:51
Yang akan cukup untuk artikel ini.
00:53
Untuk informasi lebih lanjut tentang bagaimana mereka dihasilkan, saya mengundang Anda untuk menonton video yang saya buat menjelaskan
00:58
deepfake tepat di bawah, karena video ini akan fokus pada cara mengenalinya.
01:04
Lebih tepatnya, saya akan meliput makalah baru oleh Laboratorium Penelitian Angkatan Darat DEVCOM USA berjudul
01:09
“DEFAKEHOP: DETEKTOR DEEPFAKE BERKINERJA TINGGI RINGAN.”
01:14
Memang, mereka dapat mendeteksi deepfake dengan akurasi lebih dari 90% di semua kumpulan data dan bahkan mencapai
01:20
Akurasi 100% dalam beberapa set data benchmark.
01:24
Yang lebih luar biasa adalah ukuran model deteksi mereka.
01:27
Seperti yang Anda lihat, model DeFakeHop ini hanya memiliki 40 ribu parameter, sedangkan yang lainnya
01:33
teknik menghasilkan akurasi yang jauh lebih buruk memiliki sekitar 20 juta!
01:37
Ini berarti model mereka 500 RATUS kali lebih kecil sementara mengungguli yang sebelumnya
01:43
teknik-teknik mutakhir.
01:44
Ini memungkinkan model berjalan dengan cepat di ponsel Anda dan memungkinkan Anda untuk mendeteksi secara mendalam
01:49
palsu di mana saja.
01:50
Anda mungkin berpikir bahwa Anda dapat membedakan antara gambar asli atau palsu, tapi
01:54
jika Anda ingat penelitian yang saya bagikan beberapa minggu yang lalu, itu jelas menunjukkan bahwa sekitar
01:59
50 persen peserta gagal.
02:01
Itu pada dasarnya tebakan acak apakah gambar itu palsu atau tidak.
02:05
Ada situs web dari MIT tempat Anda dapat menguji kemampuan Anda untuk menemukan deefak jika Anda mau
02:10
mau.
02:11
Setelah mencobanya sendiri, saya dapat mengatakan itu cukup menyenangkan untuk dilakukan.
02:14
Ada file audio, video, gambar, dll.
02:17
Linknya ada di deskripsi di bawah.
02:19
Jika Anda mencobanya, beri tahu saya seberapa baik Anda melakukannya!
02:21
Dan jika Anda mengetahui aplikasi menyenangkan lainnya untuk menguji diri sendiri atau membantu penelitian dengan mencoba yang terbaik
02:26
untuk menemukan deepfake, silakan tautkan di komentar.
02:29
Saya ingin mencobanya!
02:31
Sekarang, jika kita kembali ke makalah yang mampu mendeteksi mereka jauh lebih baik daripada yang kita bisa, pertanyaannya
02:36
adalah: bagaimana model pembelajaran mesin kecil ini dapat mencapai itu sementara manusia tidak?
02:42
DeepFakeHop bekerja dalam empat langkah.
02:44
Langkah 1:
02:45
Pada awalnya, mereka menggunakan model lain untuk mengekstrak 68 landmark wajah yang berbeda dari setiap video
02:50
bingkai.
02:51
68 poin ini diekstraksi untuk memahami di mana wajah berada, lebih baru, mengarahkan, dan mengubah ukuran
02:57
itu untuk membuatnya lebih konsisten, dan kemudian mengekstrak bagian wajah tertentu dari
03:02
gambar.
03:03
Ini adalah "tambalan" dari gambar yang akan kami kirim ke jaringan kami, yang berisi individu tertentu
03:09
fitur wajah seperti mata, mulut, hidung.
03:12
Hal ini dilakukan dengan menggunakan model lain yang disebut OpenFace 2.0.
03:16
Itu dapat secara akurat melakukan deteksi landmark wajah, estimasi pose kepala, tindakan wajah
03:22
pengenalan unit, dan estimasi pandangan mata secara real-time.
03:26
Ini semua adalah tambalan kecil 32 kali 32 yang semuanya akan dikirim ke jaringan yang sebenarnya
03:32
dengan satu.
03:33
Ini membuat model menjadi sangat efisien karena hanya menangani beberapa gambar kecil
03:38
alih-alih gambar penuh.
03:40
Detail lebih lanjut tentang OpenFace2.0 dapat ditemukan di referensi di bawah ini jika Anda penasaran
03:45
tentang hal itu.
03:46
Langkah 2 hingga 4 (kiri ke kanan, biru, hijau, oranye):
03:47
Lebih tepatnya, tambalan dikirim ke unit PixelhHop++ pertama bernama Hop-1, seperti yang Anda
03:53
bisa melihat.
03:54
Mewakili langkah satu dengan warna biru.
03:55
Ini adalah algoritma yang disebut transformasi Saab untuk mengurangi dimensi.
03:58
Ini akan mengambil gambar 32 kali 32 dan menguranginya ke versi gambar yang diperkecil tetapi
04:04
dengan beberapa saluran yang mewakili responsnya dari berbagai filter yang dipelajari dari Saab
04:10
mengubah.
04:11
Anda dapat melihat transformasi Saab sebagai proses konvolusi, di mana kernel ditemukan menggunakan
04:16
algoritma pengurangan dimensi PCA menggantikan kebutuhan backpropagation untuk mempelajari ini
04:21
bobot.
04:22
Saya akan kembali ke algoritma pengurangan dimensi PCA dalam satu menit seperti yang diulang dalam
04:26
tahap selanjutnya.
04:27
Filter ini dioptimalkan untuk mewakili frekuensi yang berbeda dalam gambar, pada dasarnya
04:32
diaktifkan dengan berbagai tingkat detail.
04:35
Transformasi Saab terbukti bekerja dengan baik melawan serangan musuh dibandingkan dengan dasar
04:40
konvolusi dilatih dengan backpropagation.
04:43
Anda juga dapat menemukan informasi lebih lanjut tentang transformasi Saab dalam referensi di bawah ini.
04:47
Jika Anda tidak terbiasa dengan cara kerja konvolusi, saya sangat mengundang Anda untuk menonton video saya
04:52
membuat memperkenalkan mereka:
04:56
Saya mengatakan transformasi Saab bekerja dengan baik pada serangan permusuhan.
05:00
Serangan permusuhan ini terjadi ketika kita "menyerang" gambar dengan mengubah beberapa piksel atau menambahkan
05:06
kebisingan yang tidak dapat dilihat manusia untuk mengubah hasil pemrosesan model pembelajaran mesin
05:11
foto.
05:12
Jadi untuk menyederhanakan, pada dasarnya kita dapat melihat Unit PixelHop++ ini sebagai konvolusi 3 kali 3 biasa
05:19
di sini karena kita tidak melihat proses pelatihan.
05:21
Tentu saja, ini bekerja sedikit berbeda, tetapi itu akan membuat penjelasannya jauh lebih mudah
05:26
karena prosesnya sebanding.
05:28
Kemudian, langkah "Hop" diulang tiga kali untuk mendapatkan versi yang lebih kecil dan lebih kecil dari
05:33
gambar dengan informasi umum terkonsentrasi dan lebih banyak saluran.
05:37
Saluran ini hanyalah keluaran, atau tanggapan, dari gambar masukan dengan filter yang
05:42
bereaksi secara berbeda tergantung pada tingkat detail pada gambar, seperti yang saya katakan sebelumnya.
05:48
Satu saluran baru per filter yang digunakan.
05:50
Dengan demikian, kami memperoleh berbagai hasil yang memberi kami informasi yang tepat tentang isi gambar,
05:55
tetapi hasil ini lebih kecil dan lebih kecil yang mengandung lebih sedikit detail spasial yang unik untuk
06:00
gambar yang tepat dikirim dalam jaringan, dan karena itu memiliki informasi yang lebih umum dan berguna
06:06
berkaitan dengan apa yang sebenarnya terkandung dalam gambar tersebut.
06:09
Beberapa gambar pertama masih relatif besar, mulai dari 32 kali 32, menjadi yang pertama
06:15
ukuran tambalan dan dengan demikian berisi semua detail.
06:18
Kemudian, turun menjadi 15 kali 15, dan akhirnya menjadi 7 kali 7 gambar, artinya kita sudah dekat
06:24
ke nol informasi spasial pada akhirnya. Gambar 15 kali 15 hanya akan terlihat buram
06:29
versi gambar awal tetapi masih mengandung beberapa informasi spasial, sedangkan 7 oleh 7
06:35
gambar pada dasarnya akan menjadi versi gambar yang sangat umum dan luas dengan hampir tidak
06:40
informasi spasial sama sekali.
06:43
Jadi seperti jaringan saraf convolutional, semakin dalam kita, semakin banyak saluran yang kita miliki
06:48
artinya kita memiliki lebih banyak respons filter yang bereaksi terhadap rangsangan yang berbeda, tetapi semakin kecil
06:53
mereka masing-masing, diakhiri dengan gambar ukuran 5x5.
06:56
Memungkinkan kita untuk memiliki pandangan yang lebih luas dalam banyak hal, menyimpan banyak informasi berharga yang unik
07:02
bahkan dengan versi gambar yang lebih kecil.
07:05
Gambar menjadi lebih kecil karena setiap unit PixelHop diikuti oleh max-pooling
07:12
langkah.
07:13
Mereka hanya mengambil nilai maksimum setiap kuadrat dua kali dua piksel, mengurangi
07:17
ukuran gambar dengan faktor empat pada setiap langkah.
07:20
Kemudian, seperti yang Anda lihat dalam model lengkap yang ditunjukkan di atas, output dari setiap lapisan max-pooling
07:24
dikirim untuk pengurangan dimensi lebih lanjut menggunakan algoritma PCA.
07:26
Yang merupakan langkah ketiga, berwarna hijau.
07:28
Algoritma PCA terutama mengambil dimensi saat ini, misalnya, 15 kali 15 di sini XNUMX
07:34
langkah pertama, dan meminimalkan itu sambil mempertahankan setidaknya 90% dari intensitas input
07:40
gambar.
07:41
Berikut adalah contoh yang sangat sederhana tentang bagaimana PCA dapat mengurangi dimensi, di mana dua dimensi
07:45
titik kucing dan anjing direduksi menjadi satu dimensi pada garis, memungkinkan kita untuk menambahkan a
07:51
ambang batas dan dengan mudah membangun pengklasifikasi.
07:54
Setiap hop memberi kita masing-masing 45, 30, dan 5 parameter per saluran alih-alih memiliki
08:00
gambar berukuran 15 kali 15, 7 kali 7, dan 3 kali 3, yang akan memberi kita urutan yang sama 225,
08:07
49, dan 9 parameter.
08:11
Ini adalah representasi yang jauh lebih ringkas sambil memaksimalkan kualitas informasi
08:16
mengandung.
08:17
Semua langkah ini digunakan untuk memadatkan informasi dan membuat jaringan menjadi super cepat.
08:22
Anda dapat melihat ini sebagai memeras semua jus bermanfaat pada tingkat detail yang berbeda
08:27
gambar yang dipotong untuk akhirnya memutuskan apakah itu palsu atau tidak, menggunakan detail dan umum
08:32
informasi dalam proses pengambilan keputusan (langkah 4 berwarna oranye).
08:35
Saya senang melihat bahwa penelitian dalam melawan deepfake ini juga berkembang, dan saya
08:39
bersemangat untuk melihat apa yang akan terjadi di masa depan dengan semua itu.
08:43
Beri tahu saya di komentar apa yang menurut Anda akan menjadi konsekuensi dan kekhawatiran utama
08:47
tentang deepfake.
08:48
Apakah itu akan mempengaruhi hukum, politik, perusahaan, selebriti, orang biasa?
08:53
Yah, hampir semua orang…
08:55
Mari berdiskusi untuk berbagi kesadaran dan mewartakan agar berhati-hati dan itu
09:00
kita tidak bisa percaya apa yang kita lihat lagi, sayangnya.
09:02
Ini adalah teknologi baru yang luar biasa dan berbahaya.
09:06
Tolong, jangan menyalahgunakan teknologi ini dan tetap benar secara etis.
09:10
Tujuannya di sini adalah untuk membantu meningkatkan teknologi ini dan tidak menggunakannya untuk alasan yang salah.
Tag
Buat akun gratis Anda untuk membuka pengalaman membaca kustom Anda.
Coinsmart. Beste Bitcoin-Börse di Europa
Sumber: https://hackernoon.com/how-to-spot-a-deepfake-in-2021-yd1v3539?source=rss