«Kecerdasan buatan tidak netral, merespons minat»

Itu terdengar seperti film yang disutradarai oleh Stanley Kubrick dan akhirnya menjadi kata kunci dan terutama realitas nyata yang menyertai kita ke mana pun kita pergi. Ini telah mengubah rutinitas kami dan diterapkan di berbagai bidang seperti kesehatan, ilmu pengetahuan, transportasi atau keuangan. Ikecerdasan buatan (IA) akan mencapai € 52,7 miliar, 9 kali lebih banyak dari yang diinvestasikan hari ini di sektor ini, pada tahun 2025, menurut perusahaan robotik kolaboratif dan struktur cerdas Airtificial.

"Meskipun dapat membawa manfaat bagi individu dan masyarakat, AI juga dapat memiliki dampak negatif." Ini dijelaskan pada akhir tahun lalu Komisi Eropa kedatangan kecerdasan buatan dalam kehidupan orang Eropa. Peningkatan progresif dalam penggunaan teknologi ini telah menyebabkan Komisi Eropa untuk menyatukan 52 ahli independen untuk membahas pedoman etika yang harus diikuti dalam pengembangan dan penggunaan kecerdasan buatan.

«Setiap penemuan, ciptaan baru atau kapasitas baru yang kami kembangkan untuk menghasilkan kekuatan baru atau kemungkinan baru dalam melakukan sesuatu memerlukan pertanyaan tentang siapa yang akan menggunakannya dan arah apa yang ingin kami berikan kepada mereka, karena semuanya bisa digunakan untuk menghasilkan kesejahteraan atau untuk menghancurkan», Jelaskan Miquel Segura Mendlewicz, profesor kolaborasi Seni dan Kemanusiaan dari UOC.

Oleh karena itu, a refleksi etis tentang kecerdasan untuk mengajukan pertanyaan seperti "apa itu kecerdasan, apa itu buatan, siapa yang melakukan kecerdasan ini, mengapa, mengapa, jika tujuannya adalah untuk menghasilkan lebih banyak keadilan sosial dan lebih banyak kesejahteraan atau menghasilkan kompetisi neo-kapitalis untuk melihat siapa yang berkembang lebih baik melalui dari kapasitas yang dapat ditawarkan intelijen ini, apakah itu untuk kebaikan publik dan, oleh karena itu, akan tetap berada di tangan negara atau tidak … Etika kecerdasan buatan tetap, lebih dari pada jawaban, dalam pertanyaan. Dari filsafat kita harus memperluas ruang pertanyaan, ”kata profesor ahli dalam filsafat politik dan etika, yang percaya bahwa tantangan utama untuk etika kecerdasan buatan dapat diringkas dalam empat:

Kecerdasan buatan tidak netral, ia menanggapi minat dan penggunaan, dan inilah yang harus didefinisikan untuk menentukan ke arah mana mereka akan pergi.

Di balik segala jenis kecerdasan yang dihasilkan ada tanggung jawab manusia, dan, karenanya, di balik gagasan kecerdasan buatan, tanggung jawab itu tidak bisa dihindari.

Gagasan intelijen, oleh alasan positivis dan neo-positivis, telah sedikit demi sedikit menjadi kapasitas untuk menghitung, merasionalisasi, melakukan operasi presisi, dan kemungkinan lain yang harus dilakukan lebih banyak dengan humaniora, seni, dll. Tetapi ada banyak kecerdasan: kita harus mendefinisikan kecerdasan apa yang ingin kita hasilkan.

Adalah perlu untuk menentukan penggunaan politik yang akan dibuat dari intelijen ini dan siapa yang akan memantau bahwa itu digunakan secara adil.

Daya tarik bahwa pengembangan kecerdasan buatan diberikan pada masyarakat telah menyebabkan para ahli bertanya apa yang begitu menarik tentang dia. Dan jawabannya sepertinya menunjuk pada kerinduan untuk kontrol. Seperti Miquel Seguró menjelaskan, ada ilusi bahwa melalui kecerdasan buatan «Kita akan memiliki kendali yang lebih besar terhadap hidup kita dan masalah yang termasuk dalam hidup kita. Tapi itu hanya satu sisi dari pengalaman, karena ada pelukan, senyum, keheningan … bahwa tidak ada cara untuk memprogram atau memprediksi, karena mereka bergantung pada konteks dan keterampilan yang tidak hanya kuantitatif, tetapi membutuhkan pengembangan pribadi, keberanian pribadi dan menganggap kemampuan untuk berbuat salah, ”katanya.

Diskriminasi algoritma

Bahkan, kontrol total sepertinya tidak mungkin. Kecerdasan buatan gunakan algoritma untuk menarik kesimpulan dan membuat keputusan. Dan seluruh proses itu menggunakan data yang terkadang diskriminatif. Itulah yang terjadi dengan Algoritma Compas, dibuat untuk membantu hakim Amerika Serikat memutuskan pembebasan sementara. Setelah tes pertama disimpulkan bahwa itu adalah algoritma rasis karena saya menggunakan data dari departemen kepolisian di mana sebagian besar tahanan berkulit hitam, jadi algoritma menetapkan itu risiko menjadi penjahat lebih tinggi di antara orang-orang itu.

A kolektif dengan kemungkinan besar didiskriminasi dalam program kecerdasan buatan adalah milik para tetua, Yang berisiko tidak terlihat. Sebagaimana dijelaskan oleh para peneliti UOC Andrea Rosales dan Mireia Fernández Ardèvol, para ahli dalam manula dan TIK, sistem kecerdasan buatan yang digunakan untuk mengumpulkan dan menganalisis data sering dilupakan oleh kelompok ini. «Ketika penggunaan ruang publik di kota diselidiki, data ponsel yang memiliki wifi diaktifkan dianalisis: dari saat orang menghabiskan menyeberang jalan melalui lampu lalu lintas ke waktu yang mereka butuhkan untuk menaiki tangga kereta bawah tanah. Tapi dalam analisis studi ini minoritas tidak diperhitungkan bahwa mereka tidak memiliki Wi-Fi di ponsel mereka atau, jika mereka melakukannya, mereka selalu mematikannya ”, mereka menunjukkan sebagai contoh dari kemungkinan diskriminasi yang dapat dilakukan dalam penggunaan kecerdasan buatan.

Pos terkait

Back to top button