Pengenalan wajah vs deepfakes

Dalam robotika ada fenomena yang dikenal sebagai lembah yang mengganggu: ketika sebuah replika manusia terlalu dekat dengan penampilan atau perilaku orang sungguhan, itu menyebabkan respons penolakan di pemirsa yang mengidentifikasinya sebagai tiruan. Itu terjadi, misalnya, dengan beberapa robot yang dianggap "terlalu sempurna." itu deepfakes (Video palsu dari orang sungguhan yang dibuat melalui Kecerdasan Buatan) juga menderita dari masalah ini, untuk saat ini.

Masalahnya adalah bahwa pemalsuan ini menjadi lebih baik dan banyak ahli memperkirakan bahwa dalam lima tahun ke depan mereka tidak dapat dibedakan dengan pengguna. Ketika itu terjadi akan sangat penting agar masyarakat sadar; Jika seorang pengguna Internet mengabaikan bahwa ia dapat ditipu, akan lebih mudah baginya untuk jatuh ke dalam perangkap. Sementara itu, beberapa peneliti bekerja untuk mengembangkan alat yang dapat membantu membuka kedok ancaman baru.

Beberapa bulan yang lalu sebuah situs web disebut ThisPersonDoesNotExist.com, diciptakan sebagai cara untuk meningkatkan kesadaran publik, menjadi viral. Web menggunakan AI untuk menghasilkan wajah palsu, meskipun sangat realistis. Tak lama setelah inisiatif kedua muncul, dengan twist baru: WhichFaceIsReal.com yang memungkinkan pengujian kemampuan pengguna untuk membedakan uang palsu yang dihasilkan oleh AI dari foto asli.

Palsu belum sempurna: perangkat lunak tidak tahu persis aturan yang tepat dari anatomi manusia dan elemen-elemen seperti latar belakang atau perhiasan membuat kegagalan yang jelas. Namun, pengguna memiliki, rata-rata, tingkat sebenarnya antara 60% dan 75%. Bahkan para peserta yang berlatih paling banyak menumpuk, tidak melebihi ambang batas kesuksesan itu.

Mendidik dan mencegah

Dalam kasus WhichFaceIsReal, web memiliki tujuan lain di luar kesadaran atau hiburan. Itu dibuat oleh dua akademisi dari University of Washington yang mempelajari bagaimana disinformasi disebarluaskan ke seluruh masyarakat. Mereka berpikir bahwa peningkatan palsu yang dihasilkan oleh AI bisa menjadi penting risiko terhadap kepercayaan masyarakat dalam data, dan mereka ingin mendidik masyarakat.

Sebagai contoh, pencipta wajah-wajah yang dihasilkan oleh AI mencoba untuk mencegah suatu hari deepfakes dapat digunakan secara jahat untuk menyebarkan informasi yang salah setelah serangan teroris. AI juga dapat digunakan untuk membuat penyebab kesalahan yang wajahnya beredar online dan berdifusi di jejaring sosial. Media biasanya memverifikasi asal-usul gambar, menggunakan alat-alat seperti pencarian gambar terbalik Google, tetapi teknik pengecekan fakta itu tidak akan bekerja dengan deepfake.

Sistem GAN

Kedua situs web menggunakan metode pembelajaran mesin yang dikenal sebagai jaringan generatif adversarial (atau GAN) untuk membuat tipuan mereka. Jaringan ini beroperasi dengan menganalisis sejumlah besar data (dalam hal ini, banyak potret orang sungguhan), mempelajari pola mereka dan kemudian mencoba meniru apa yang telah mereka lihat.

Alasan mengapa GAN begitu baik adalah karena mereka menguji diri mereka berulang kali. Satu bagian dari jaringan menghasilkan wajah dan yang lain membandingkannya dengan proses pelatihan mereka. Jika ia dapat mendeteksi ketidaksempurnaan, generator memeriksa karyanya dan menciptakan wajah baru.

Pos terkait

Back to top button