Senin 01 Nov 2021 07:01 WIB

Analisis Kecerdasan Buatan Bisa Berdampak Rasialis?

Saat ini banyak pekerjaan manusia yang digantikan oleh kecerdasan buatan atau AI.

Kecerdasan buatan (Ilustrasi)
Foto:

AI mematuhi ide usang Big Five

"Banyak dari piranti lunak ini berlandaskan teori yang dalam berbagai ilmu sosial, sosiologi juga psikologi dianggap kontroversial, atau sudah lama usang,“ kata Jaume-Palasí.

Di dalamnya tercakup ide-ide yang disebut Big Five. Big Five dalam piranti lunak adalah: sikap terbuka, bertanggungjawab, menerima ide baru, punya empati dan keyakinan diri. Inteligensia artifisial menempatkan orang pada ibaratnya laci-laci ini, dan menarik kesimpulan tentang kelayakan seseorang. 

Misalnya, empati tidak termasuk dalam kategori yang dicari untuk posisi pemimpin. Sementara empati diasosiasikan dengan perempuan. Akhirnya piranti lunak berinterpretasi: perempuan tidak cocok jadi pemimpin!  

Masalah lainnya: Big Five adalah nilai-nilai yang berlaku dalam masyarakat Eropa. Jika kita memandang Asia misalnya, bisa dilihat, sikap rajin punya bobot sangat tinggi. Dan itu sama sekali tidak diperhitungkan "tool" yang biasanya digunakan perusahaan besar.

Teknologi yang digunakan untuk evaluasi orang

Uni Eropa juga menggunakan piranti lunak seperti itu untuk proses pencarian pegawai baru. Namanya Cammio. Tapi sekarang fungsi inteligensia buatan yang ada di piranti lunak itu belum mulai digunakan. 

Lorena Jaume-Palasí yang juga jadi penasehat pemerintah dalam hal intelegensia artifisial mengatakan, "Saya rasa, kita harus memikirkan dulu, apakah teknologi seperti ini bisa digunakan dalam berbagai hal, yang tujuannya memberikan nilai dan mengevaluasi orang.“

Penyebabnya, karena teknologi ini sebenarnya tidak etis dan tidak sesuai dengan ilmu pengetahuan, dan tidak layak dilempar ke pasaran. Begitu ditekankan Jaume-Palasí yang juga pendiri organisasi non profit Ethical Tech Society 

Namun demikian, di seluruh dunia, semakin banyak sistem kecerdasan buatan yang digunakan.  

Manusia butuh program yang inklusif

"Kita harus mulai memikirkan bagaimana caranya menciptakan program yang bersifat lebih inklusif dan mengikutsertakan praktik lebih inklusif pula. Ini harus dimulai manusia,“ kata Joy Buolamwini.

Peneliti intelegensia artifisial itu mengemukakan sejumlah hal yang harus dipertimbangkan. Apakah kita menciptakan tim dengan individu beraneka ragam, dan bisa saling melengkapi? Dari segi teknis, apakah kita memperhitungkan keadilan jika mengembangkan sistem?

Kita sekarang punya kesempatan untuk mencapai persamaan dan keadilan, jika kita menjadikan perubahan sosial sebagai prioritas, dan bukan hal sampingan. Demikian ditambahkan Joy Buolamwini.

Menilai orang secara adil, berkaitan dengan tantangan lebih besar. Dan itu menuntut biaya tambahan dari pembuat program inteligensia artifisial. 

 

 

sumber: https://www.dw.com/id/inteligensia-buatan-bisa-rasis/a-59600669

sumber : DW
Advertisement
Berita Lainnya
Advertisement
Terpopuler
1
Advertisement
Advertisement