Bias kecerdasan buatan dapat mempromosikan rasisme dan seksisme


Joy Buolamwini-Algoritma Justice League

Namun, sistem kecerdasan buatan sedang dikembangkan untuk mengoptimalkan kehidupan setiap pelajar. Mereka menunjukkan bahwa banyak sistem pengenalan wajah dan ucapan berbasis mesin yang cacat, yang menunjukkan stereotip utama tentang ras dan gender.

Joy Buolamwini, lulusan MIT, merasa sangat tidak nyaman karena perangkat lunak pengenalan wajah memiliki bias ras yang besar, mereka tidak dapat mengenali wajahnya. Buolamwini, seorang wanita berambut gelap mencatat bahwa sistem analisis wajah yang dia uji tidak dapat mendeteksi wajahnya karena pada prinsipnya pengembang “Mereka tidak mempelajari algoritme untuk mengidentifikasi berbagai warna kulit” dan struktur wajah.

Saya mengalaminya pertama kali ketika saya masih mahasiswa doktoral di MIT 2015 dan menemukan bahwa beberapa program analisis wajah tidak dapat mendeteksi wajah kipas gelap saya sampai saya duduk di atas topeng putih.

Kredit: ViewApart-iStock

Melindungi ras dalam kecerdasan buatan

Joy memutuskan untuk menggunakan pengetahuannya untuk memahami mengapa kecerdasan buatan sering menerapkan risiko rasial ini secara drastis, untuk memastikannya, yang perlu dia lakukan hanyalah mengubah wajahnya dengan topeng putih “agar sesuai dengan norma”.

Perangkat lunak yang digunakan menunjukkan bahwa ia tidak memperhitungkan keragaman manusia dan memutuskan apa yang disebutnya “Efek pengecualian yang berlebihan”.

Joy dan organisasinya bekerja sama dengan ACLU dan pakar visi mesin untuk memerangi prasangka rasial dalam alat kecerdasan buatan. Penyelidikannya mengungkapkan sistem pengenalan wajah seperti Amazon Pengakuan dan lainnya dari IBM, Microsoft mengajukan penundaan besar pada rasisme dan seksisme.

Penelitian saya menemukan stereotip ras dan gender dalam sistem kecerdasan buatan yang dijual oleh raksasa teknologi seperti IBM, Microsoft, dan Microsoft. Amazon.

Bias kecerdasan buatan dapat mempromosikan rasisme dan seksisme 3 Bukti menunjukkan bahwa beberapa sistem AI gagal mengklasifikasikan wajah Oprah Winfrey dengan benar. Kredit: Joy Buolamwini, Aliansi Keadilan Algoritma

Ditugaskan untuk menebak jenis kelamin wajah, semua perusahaan tampil secara signifikan lebih baik pada wajah pria daripada wajah wanita. Perusahaan yang saya ulas memiliki tingkat kesalahan 1% tertinggi untuk pria dengan kulit lebih terang.

Bias kecerdasan buatan dapat mempromosikan rasisme dan seksisme 4 Sistem kecerdasan buatan dari perusahaan terkemuka telah gagal mengklasifikasikan wajah wanita ikonik seperti Michelle Obama. Kredit: Joy Buolamwini, Aliansi Keadilan Algoritma

Kedalaman terdeteksi di Amazon Sadar lagi

Contoh penting dari penyimpangan kesalahan ini telah ditunjukkan berkali-kali di Amazon Persepsi ulang. Sistem pengenalan wajah yang dikembangkan oleh Amazon Ada beberapa tantangan yang menunjukkan kemampuan teknologi.

Pada tahun 2018, American Civil Liberties Union (ACLU) menguji teknologi dan pada saat itu membingungkan 28 anggota kongres AS. dengan kejahatan. Bukti telah dipublikasikan di situs web mereka. ACLU mengunduh 25.000 foto dari database publik, dan Akreditasi diminta untuk membandingkannya dengan gambar dari 535 anggota Kongres Amerika Serikat.

Akibatnya, sistem menemukan 28 kebetulan, yaitu 28 anggota parlemen menurut sistem kecerdasan buatan, ditangkap karena melakukan kejahatan.

Bias kecerdasan buatan dapat mempromosikan rasisme dan seksisme 5

Tapi bukan itu saja

Pada 2019, aplikasi diuji lagi Amazon Diakui, dan mengejutkan banyak orang, hasilnya juga tidak menggembirakan. Dalam tes yang dilakukan oleh ACLU, Teknologi Identifikasi salah mengidentifikasi lima anggota parlemen sebagai penjahat saat membandingkannya dengan database catatan polisi.

Protes itu diselenggarakan atas permintaan Anggota Dewan San Francisco Phil Ting, yang mendorong RUU yang akan melarang lembaga penegak hukum menggunakan teknologi pengenalan wajah.

“Kami ingin menjalankannya sebagai demonstrasi bagaimana perangkat lunak tidak sepenuhnya jelas,” Hal-hal mengatakan. Yang juga menjelaskan tujuan dari tagihannya. Karena meskipun kelihatannya lucu aku salah mengidentifikasi mereka “Tidak menyenangkan jika Anda adalah seseorang yang mencoba mendapatkan pekerjaan, membeli rumah dan Anda tidak dapat melakukannya karena Anda telah dituduh secara tidak benar oleh seorang penjahat.”.

Perlombaan suara dalam sistem pengenalan suara

Beberapa bulan yang lalu, sebuah penelitian mengidentifikasi penundaan balapan saat ini dalam sistem pengenalan suara. Studi ini benar “Perbedaan ras dalam pengenalan suara otomatis”, Dilakukan oleh Universitas Stanford, ini menunjukkan bahwa sistem pengenalan suara ini secara signifikan mampu secara rasial, dengan perbedaan antara suara Kaukasia dan Afrika-Amerika.

Di sini kami menguji kemampuan lima sistem ASR generasi berikutnya – yang dikembangkan oleh Amazon, AppleGoogle, IBM dan Microsoft – untuk menyalin wawancara terstruktur yang dilakukan dengan 42 pembicara kulit putih dan 73 pembicara kulit hitam.

Kami menemukan bahwa kelima sistem ASR menunjukkan perbedaan ras yang signifikan, dengan kesalahan kata rata-rata (WER) 0,35 untuk penutur kulit hitam dibandingkan dengan 0,19 untuk penutur kulit putih.

Bias kecerdasan buatan dapat mempromosikan rasisme dan seksisme 6 Hasilnya menunjukkan perbedaan yang luar biasa dari kesalahan 19% dalam mengenali suara kulit putih, hingga kesalahan 35% dalam mengenali suara Afrika-Amerika. Sumber: pnas.org

Studi-studi ini tentu saja mengkhawatirkan, karena pemusnahan breed ditemukan di semua teknik identifikasi yang dirancang untuk bekerja dengan informasi manusia. Setelah studi pengenalan suara, para peneliti menyatakan keprihatinannya Sistem pengenalan ucapan yang dipengaruhi oleh prasangka rasialtelah muncul di aplikasi pembelajaran mesin lainnya.

IA dan prinsip-prinsip etikanya: apa penundaan dalam hal ras, jenis kelamin, kebangsaan?

Pada April 2020, sekelompok peneliti memperkenalkan program hadiah bagi pengembang yang mengeksplorasi bias rasial dalam AI. Dan sementara ini adalah inisiatif yang hebat, ini benar-benar menunjukkan betapa seriusnya masalah ini ketika seseorang harus didorong untuk menyelidiki dan melaporkan stereotip rasial ini.

“Bias dan penghargaan privasi akan memperluas konsep penghargaan bug untuk AI dan dapat melengkapi upaya yang ada untuk membuat kumpulan data dan model dokumen yang lebih baik untuk kendala.” tentang kinerja dan karakteristik lainnya.”

Hal ini sejalan dengan prinsip etika kecerdasan buatan, yang harus diterapkan oleh mereka yang mengembangkan teknologi ini. Mantan Direktur DARPA Regina Dugan juga meminta latihan tim merah untuk mengatasi tantangan etis dalam sistem AI.

“Demokratisasi Kecerdasan Buatan dan Bias Algoritma Serangan”

Selama MWC 2019, kepala analis Forrester Research Jennifer Belissent menyelenggarakan seminar “Mendemokratisasi kecerdasan buatan dan menyerang algoritma bias” sekali lagi membuktikan bahwa data “tidak bisa netral” karena mereka lahir dalam konteks sosial, bertentangan dengan prinsip ini, analis memutuskan bahwa itu diperlukan untuk mengurutkan atau mendemokratisasi kecerdasan buatan dan menambahkan “solusi data besar” untuk membuat teknologi ini lebih mudah diakses oleh konsumen.”

Demikian juga, Roger Taylor, ketua Pemerintah Inggris yang mengawasi etika data dan inovasi menjelaskan bahwa: “Etika adalah isu utama saat ini” dan menambahkan: “Dan kecerdasan buatan Etika adalah isu sentral yang berkembang.”

Bias kecerdasan buatan dapat mempromosikan rasisme dan seksisme 7 Foto: AP

Faktor penting dalam masyarakat saat ini

“Tidak ada cara rasional untuk menjelaskan bahwa orang kulit hitam lebih mungkin melakukan kejahatan.”

Roger Taylor mengatakan saat berbicara tentang penggunaan kecerdasan buatan dalam sistem hukum, karena kesalahan ini, dimungkinkan untuk menuntut orang yang tidak bersalah. Menurut laporan dari ahli teknologi MIT, pakar hukum dan aktivis komunitas Black Lives Matter telah memutuskan bahwa:

Polisi menggunakan algoritme prediktif untuk menyusun strategi di mana harus mengirimkan peringkat mereka. Penegakan hukum menggunakan sistem pengenalan wajah untuk mengidentifikasi tersangka.

Ambil alih keputusan tentang masa depan seseorang, melalui algoritme yang telah terbukti memiliki bias rasial yang besar.

Teknologi adalah bagian dari kehidupan kita, sistem pengenalan wajah dan pengenalan suara akan diinstal sebelumnya pada perangkat seluler kita dan bahkan beberapa alat yang lebih kuat sedang digunakan oleh organisasi Formal, seperti yang telah kami sebutkan, telah dikritik habis-habisan oleh studi hak-hak sipil untuk sejumlah besar penelitian yang mengkonfirmasi kekurangan ini. dalam teknologi baru ini.

Pengenalan wajah di stadion

Kecerdasan buatan, pembelajaran mesin, sistem pengenalan wajah tidak hanya menantang bagi pengembang, tetapi juga menampilkan diri mereka sebagai teknologi yang luar biasa bagi perwakilan hak-hak sipil.

Karena teknologi memperlihatkan integritas fisik orang-orang keturunan Afrika, migran dan perempuan, sistem identifikasi ini “tidak siap” untuk kasus-kasus ini, karena data mereka tidak berisi data yang berbeda.

Dengan kecerdasan buatan, algoritme pembelajaran mesin yang memproses informasi yang disediakan oleh pengembangnya, sangat jelas bahwa proses klasifikasi, identifikasi, pemilihan ini bersifat subjektif, sistem pembelajaran mesin belajar dari informasi yang disediakan, dan karena itu tidak memberikan banyak manfaat informasi yang memperjelas stereotip rasial yang ada.

Pos terkait

Back to top button