Unmasking Bias in Artificial Intelligence: Challenges and Solutions – Hobicode
Artikel: Mengungkap Bias dalam Kecerdasan Buatan: Tantangan dan Solusi
Kemajuan terbaru dari kecerdasan buatan generatif telah menyebabkan lonjakan aplikasi perusahaan di berbagai industri, termasuk keuangan, kesehatan, transportasi. Pengembangan teknologi ini juga akan membawa teknologi lain yang sedang berkembang seperti teknologi pertahanan keamanan cyber, kemajuan komputasi kuantum, dan teknik komunikasi nirkabel yang revolusioner. Namun, ledakan teknologi generasi berikutnya ini juga datang dengan sejumlah tantangan tersendiri.
Sebagai contoh, adopsi kecerdasan buatan dapat memungkinkan serangan siber yang lebih canggih, bottlenecks memori dan penyimpanan akibat peningkatan daya komputasi, dan kekhawatiran etis terhadap bias yang ditimbulkan oleh model kecerdasan buatan. Berita baiknya adalah NTT Research telah mengusulkan cara untuk mengatasi bias dalam jaringan saraf dalam (DNN), jenis kecerdasan buatan.
Penelitian ini merupakan terobosan signifikan mengingat model kecerdasan buatan yang tidak bias akan berkontribusi pada perekrutan, sistem keadilan pidana, dan kesehatan ketika mereka tidak dipengaruhi oleh karakteristik seperti ras, gender. Di masa depan, diskriminasi berpotensi untuk dieliminasi dengan menggunakan jenis sistem otomatis ini, sehingga meningkatkan inisiatif bisnis DE&I di seluruh industri. Terakhir, model kecerdasan buatan dengan hasil yang tidak bias akan meningkatkan produktivitas dan mengurangi waktu yang dibutuhkan untuk menyelesaikan tugas-tugas tersebut. Namun, beberapa bisnis telah terpaksa menghentikan program yang dihasilkan oleh kecerdasan buatan mereka karena solusi yang bias.
Sebagai contoh, Amazon menghentikan penggunaan algoritma perekrutan ketika menemukan bahwa algoritma tersebut cenderung memilih pelamar yang menggunakan kata-kata seperti “mengeksekusi” atau “menangkap” lebih sering, yang lebih banyak ditemukan dalam resume pria. Contoh lain dari bias datang dari Joy Buolamwini, salah satu orang paling berpengaruh dalam kecerdasan buatan pada tahun 2023 menurut TIME, bekerja sama dengan Timnit Gebru di MIT, mengungkapkan bahwa teknologi analisis wajah menunjukkan tingkat kesalahan yang lebih tinggi saat menilai minoritas, terutama wanita minoritas, mungkin karena data pelatihan yang tidak mewakili dengan baik.
Baru-baru ini, DNN telah menjadi merambah dalam ilmu pengetahuan, rekayasa, dan bisnis, bahkan dalam aplikasi populer, tetapi terkadang bergantung pada atribut-atribut palsu yang mungkin menyampaikan bias. Menurut sebuah studi MIT dalam beberapa tahun terakhir, ilmuwan telah mengembangkan jaringan saraf dalam yang mampu menganalisis jumlah masukan yang besar, termasuk suara dan gambar. Jaringan ini dapat mengidentifikasi karakteristik bersama, memungkinkan mereka mengklasifikasikan kata-kata atau objek target. Saat ini, model-model ini berada di garis depan bidang sebagai model-model utama untuk mereplikasi sistem sensori biologis.
Ilmuwan Senior NTT Research dan Associate di Harvard University Center for Brain Science Hidenori Tanaka dan tiga ilmuwan lainnya mengusulkan untuk mengatasi keterbatasan fine-tuning naif, metode status quo untuk mengurangi kesalahan atau “kerugian” DNN, dengan algoritma baru yang mengurangi ketergantungan model pada atribut yang rentan terhadap bias.
Mereka mempelajari landscape kerugian jaringan saraf melalui lensa konektivitas mode, observasi bahwa minimizer jaringan saraf yang diperoleh melalui pelatihan pada dataset terhubung melalui jalur sederhana dari kerugian rendah. Secara khusus, mereka mengajukan pertanyaan berikut: apakah minimizer yang bergantung pada mekanisme yang berbeda untuk membuat prediksi terhubung melalui jalur sederhana dari kerugian rendah?
Mereka menemukan bahwa Fine-Tuning Naif tidak mampu secara fundamental mengubah mekanisme pengambilan keputusan model karena membutuhkan perpindahan ke lembah yang berbeda di landscape kerugian. Sebaliknya, Anda perlu mendorong model melalui hambatan yang memisahkan “sumber” atau “lembah” kerugian rendah. Para penulis menyebut algoritma korektif ini Fine-Tuning Berbasis Konektivitas (CBFT).
Sebelum perkembangan ini, sebuah DNN, yang mengklasifikasikan gambar seperti ikan (ilustrasi yang digunakan dalam studi ini) menggunakan bentuk objek dan latar belakang sebagai parameter input untuk prediksi. Jalur minimasi kerugiannya akan beroperasi dalam mode mekanis yang berbeda: satu bergantung pada atribut legitime dari bentuk, dan yang lainnya pada atribut palsu dari warna latar belakang. Oleh karena itu, mode-mode ini akan kekurangan konektivitas linear, atau jalur sederhana dari kerugian rendah.
Tim peneliti memahami lensa mekanistik pada konektivitas mode dengan mempertimbangkan dua set parameter yang meminimalkan kerugian menggunakan latar belakang dan bentuk objek sebagai atribut input untuk prediksi, secara bergantian. Lalu mereka bertanya pada diri sendiri, apakah minimizer yang mekanismenya berbeda terhubung melalui jalur kerugian rendah dalam landscape? Apakah perbedaan mekanisme ini memengaruhi kesederhanaan jalur koneksi mereka? Bisakah kita memanfaatkan konektivitas ini untuk beralih antara minimizer yang menggunakan mekanisme yang diinginkan?
Dengan kata lain, jaringan saraf dalam, tergantung pada apa yang mereka pelajari selama pelatihan pada dataset tertentu, dapat berperilaku sangat berbeda ketika Anda mengujinya pada dataset lain. Usulan tim ini pada intinya adalah konsep kesamaan bersama. Ini membangun pada gagasan sebelumnya tentang konektivitas mode tetapi dengan sentuhan – itu mempertimbangkan bagaimana mekanisme yang serupa bekerja. Penelitian mereka mengarah pada penemuan-penemuan berikut yang mematahkan mata:
– minimizer yang memiliki mekanisme yang berbeda dapat terhubung dengan cara yang cukup kompleks, non-linear
– ketika dua minimizer terhubung secara linear, itu erat terkait dengan seberapa mirip model mereka dalam hal mekanisme
– fine-tuning sederhana mungkin tidak cukup untuk menyingkirkan fitur-fitur yang tidak diinginkan yang diambil selama pelatihan sebelumnya
– jika Anda menemukan daerah yang terputus secara linear dalam landscape, Anda dapat membuat perubahan yang efisien pada kerja dalam model.
Meskipun penelitian ini merupakan langkah besar dalam memanfaatkan potensi penuh kecerdasan buatan, kekhawatiran etis seputar kecerdasan buatan masih menjadi tantangan yang harus diatasi. Teknolog dan peneliti sedang bekerja untuk melawan kelemahan etis lainnya dalam kecerdasan buatan dan model bahasa besar lainnya seperti privasi, otonomi, tanggung jawab.
Kecerdasan buatan dapat digunakan untuk mengumpulkan dan memproses sejumlah besar data pribadi. Penggunaan data ini tanpa izin atau tidak etis dapat mengancam privasi individu, menyebabkan kekhawatiran tentang pengawasan, pelanggaran data, dan pencurian identitas. Kecerdasan buatan juga dapat menjadi ancaman ketika datang ke tanggung jawab aplikasi otonom mereka seperti mobil otonom. Membangun kerangka hukum dan standar etika untuk akuntabilitas dan tanggung jawab akan menjadi sangat penting dalam beberapa tahun mendatang.
Sebagai kesimpulan, pertumbuhan cepat teknologi kecerdasan buatan generatif menjanjikan untuk berbagai industri, dari keuangan dan kesehatan hingga transportasi. Meskipun perkembangan yang menjanjikan ini, kekhawatiran etis seputar kecerdasan buatan tetap signifikan. Saat kita menavigasi era transformasi kecerdasan buatan ini, penting bagi teknolog, peneliti, dan pembuat kebijakan untuk bekerja sama untuk menetapkan kerangka hukum dan standar etika yang akan memastikan penggunaan teknologi kecerdasan buatan yang bertanggung jawab dan bermanfaat di tahun-tahun mendatang. Para ilmuwan di NTT Research dan Universitas Michigan sudah satu langkah lebih maju dengan usulan mereka untuk algoritma yang berpotensi menghilangkan bias dalam kecerdasan buatan.