Likrea

Kemajuan baru-baru ini dalam Deep Learning (DL), khususnya dalam bidang Generative Adversarial Networks (GAN), telah memudahkan penghasilan wajah manusia yang sangat realistis dan beragam yang tidak ada dalam kenyataan. Meskipun wajah buatan ini telah ditemukan berbagai aplikasi bermanfaat di bidang permainan video, industri kosmetik, dan desain berbantu komputer, mereka juga menimbulkan kekhawatiran keamanan dan etika yang signifikan jika disalahgunakan.

Penyalahgunaan wajah sintetis atau palsu dapat berdampak buruk. Misalnya, telah terjadi kasus di mana gambar wajah yang dihasilkan oleh GAN digunakan dalam pemilihan umum AS untuk membuat profil media sosial palsu, sehingga memungkinkan penyebaran cepat informasi yang salah di kalangan kelompok yang ditargetkan. Demikian pula, seorang siswa SMA berusia 17 tahun berhasil menipu Twitter untuk memverifikasi foto profil palsu dari seorang calon anggota Kongres AS, dengan menggunakan model generatif yang kuat yang dikenal sebagai StyleGAN2. Kejadian-kejadian ini menunjukkan potensi risiko yang terkait dengan penyalahgunaan gambar wajah yang dihasilkan oleh GAN, yang menekankan pentingnya menangani implikasi keamanan dan etika penggunaannya.

Untuk mengatasi masalah wajah palsu yang dihasilkan secara sintetis oleh GAN, beberapa metode telah diusulkan untuk membedakan antara wajah palsu yang dihasilkan oleh GAN dan wajah asli. Temuan yang dilaporkan dalam studi-studi ini menunjukkan bahwa klasifikasi mendalam berbasis deep learning yang sederhana seringkali sangat efektif dalam mendeteksi gambar yang dihasilkan oleh GAN. Klasifikasi ini biasanya disebut sebagai klasifikasi forensik atau model forensik.

Namun, penyerang yang cerdas dapat memanipulasi gambar palsu ini menggunakan teknik pembelajaran mesin yang bersifat adversarial untuk mengelabui klasifikasi forensik agar tetap mempertahankan kualitas visual yang tinggi. Penelitian terbaru mengeksplorasi arah ini dengan mendemonstrasikan bahwa eksplorasi adversarial dari manifold model generatif melalui optimasi ruang laten dapat menghasilkan wajah yang realistis namun salah diklasifikasikan oleh detektor forensik yang ditargetkan. Selain itu, mereka juga menunjukkan bahwa wajah palsu yang dihasilkan secara adversarial memiliki sedikit artefak dibandingkan serangan adversarial tradisional yang mengimposisikan batasan pada ruang gambar.

Namun, penelitian ini memiliki keterbatasan yang signifikan. Khususnya, penelitian ini belum memiliki kemampuan untuk mengontrol atribut-atribut dari wajah palsu yang dihasilkan tersebut, seperti warna kulit, ekspresi, atau usia. Pengendalian atribut-atribut ini penting bagi penyerang yang bertujuan untuk dengan cepat menyebarkan propaganda palsu melalui platform media sosial, dengan menargetkan kelompok etnis atau usia tertentu.

Mengingat implikasi potensialnya, menjadi sangat penting bagi peneliti forensik gambar untuk menyelidiki dan mengembangkan serangan yang dikondisikan oleh atribut. Dengan melakukannya, mereka dapat mengungkap kerentanan dari klasifikasi forensik wajah yang ada dan akhirnya bekerja untuk merancang mekanisme pertahanan yang efektif di masa depan. Penelitian yang dijelaskan dalam artikel ini bertujuan untuk mengatasi kebutuhan mendesak akan pengendalian atribut dalam serangan adversarial, sehingga memastikan pemahaman yang komprehensif tentang kerentanan dan mempromosikan pengembangan langkah-langkah perlindungan yang kuat.

Ringkasan metode yang diusulkan dilaporkan di bawah ini.

Gambar

Disajikan dua arsitektur, yang satu terkait dengan generasi berdasarkan atribut dan yang lainnya untuk generasi berdasarkan teks. Memanfaatkan gambar atau dipandu oleh teks, metode yang diusulkan bertujuan untuk menghasilkan wajah palsu yang realistis dengan mengelabui detektor forensik wajah. Teknik ini menggunakan ruang laten yang sangat terbedakan dari StyleGAN2 untuk membangun serangan yang tidak terkondisikan atribut-terbatas dalam kerangka kerja yang terpadu.

Khususnya, diperkenalkan sebuah algoritma efisien untuk secara adversarial mengoptimalkan variabel laten yang spesifik terhadap atribut untuk menghasilkan wajah palsu yang menunjukkan atribut-atribut yang ada pada gambar referensi yang diberikan. Proses ini efektif mentransfer detail kasar atau halus yang diinginkan dari gambar referensi ke gambar palsu yang dihasilkan. Atribut semantik ditransfer dari gambar referensi yang diberikan ketika melakukan kondisioning atribut berbasis gambar. Hal ini dicapai dengan mencari ruang adversarial sambil dipandu oleh kerugian perseptual, sehingga memungkinkan transfer atribut yang diinginkan ke gambar palsu yang dihasilkan.

Selain itu, kemampuan representasi citra-teks gabungan dari Contrastive Language-Image Pre-training (CLIP) digunakan untuk menghasilkan wajah palsu berdasarkan deskripsi teks yang diberikan. Hal ini memungkinkan penegakan konsistensi antara gambar wajah palsu yang dihasilkan dan deskripsi teks yang menyertainya. Dengan memanfaatkan ruang fitur yang dipandu oleh teks dari CLIP, metode ini mencari kode laten yang adversarial dalam ruang fitur ini, sehingga memungkinkan penghasilan wajah palsu yang sejalan dengan atribut-atribut yang dijelaskan dalam teks yang menyertainya.

Beberapa hasil yang tersedia dalam makalah ini disajikan di bawah ini.

Jika Anda tertarik dan ingin mempelajari lebih lanjut tentang penelitian ini, Anda dapat menemukan informasi lebih lanjut dengan mengklik tautan di bawah ini.

Periksa paper-nya. [https://openaccess.thecvf.com/content/CVPR2023/papers/Shamshad_Evading_Forensic_Classifiers_With_Attribute-Conditioned_Adversarial_Faces_CVPR_2023_paper.pdf]

Semua Penghargaan untuk Penelitian Ini Diberikan kepada Para Peneliti dalam Proyek Ini. Juga, jangan lupa untuk bergabung dengan SubReddit ML kami yang telah mencapai lebih dari 26 ribu member, Kanal Discord, dan Buletin Email kami, di mana kami berbagi berita terbaru tentang penelitian kecerdasan buatan, proyek AI keren, dan lainnya.

Sumber Gambar: [https://www.marktechpost.com/wp-content/uploads/2023/07/Screenshot-2023-07-17-at-10.59.05-PM.png]

Sumber: [https://www.marktechpost.com/wp-content/uploads/2023/07/Screenshot-2023-07-17-at-10.59.05-PM.png]

Leave a Reply

Your email address will not be published. Required fields are marked *