REPUBLIKA.CO.ID, SEMARANG -- Pakar keamanan siber dari Lembaga Riset Keamanan Siber Indonesia CISSReC Doktor Pratama Persadha mengemukakan bahwa regulasi kecerdasan buatan atau artificial intelligence (AI) harus mencakup perlindungan data yang ketat.
Hal itu, kata Dr. Pratama Persadha, termasuk pengaturan khusus untuk penggunaan data pribadi dalam pengembangan AI dan penerapan standar enkripsi dan teknik anonimisasi harus diwajibkan untuk melindungi data sensitif.
"Ini jika regulasi terkait dengan AI dirasa perlu," kata Pratama di Semarang, Selasa, mengenai norma-norma dalam peraturan perundang-undangan apabila perlu ada regulasi tentang kecerdasan buatan di Tanah Air.
Menurut Ketua Lembaga Riset Keamanan Siber Indonesia CISSReC ini, ada beberapa norma penting yang harus termaktub dalam peraturan perundang-undangan guna memastikan pengembangan dan penggunaan AI yang aman, etis, dan dapat dipertanggungjawabkan.
Pratama lantas memandang penting sejumlah norma dalam regulasi AI, antara lain, pengembang AI harus dapat memberikan penjelasan yang jelas tentang bagaimana sistem AI bekerja, termasuk penggunaan algoritma.
Selain itu, lanjut dia, adanya kewajiban untuk menginformasikan kepada pengguna ketika mereka berinteraksi dengan AI, khususnya dalam situasi yang berpotensi memengaruhi hak atau keputusan pengguna.
Ia menegaskan bahwa regulasi juga harus mencakup perlindungan data yang ketat, termasuk pengaturan khusus untuk penggunaan data pribadi dalam pengembangan AI serta penerapan standar enkripsi dan teknik anonimisasi harus diwajibkan untuk melindungi data sensitif.
"AI harus dapat dievaluasi berdasarkan risiko yang dapat ditimbulkan, seperti risiko diskriminasi, bias algoritma, dan dampak sosial lainnya," kata Pratama menjawab pertanyaan seusai tampil sebagai pembicara webinar bertemakan Cracking Down on Online Gambling: Strengthening Cybersecurity to Combat 'Judol' in Indonesia (Menindak Tegas Perjudian Daring: Memperkuat Keamanan Siber untuk Memerangi Judol di Indonesia).
Dosen Sekolah Tinggi Ilmu Kepolisian (STIK) PTIK ini mengutarakan bahwa regulasi juga harus melarang praktik AI yang mengeksploitasi kerentanan pengguna, seperti dalam iklan manipulatif atau penyalahgunaan data biometrik.
Selanjutnya, kata Pratama, harus ada mekanisme yang memastikan pihak pengembang dan pengguna AI bertanggung jawab atas dampak negatif yang mungkin terjadi, serta regulasi dapat mengatur kewajiban pengembang untuk melakukan uji dampak etis sebelum peluncuran produk AI.
Ia lantas menyebutkan sejumlah negara yang telah memiliki kebijakan terkait dengan AI, antara lain, Amerika Serikat, Uni Eropa, Inggris, Australia, Jerman, Portugal, Turki, Prancis, dan India.
"Hal ini menunjukkan bahwa AI memang perlu diatur pemanfaatannya supaya tidak salah arah dan menimbulkan dampak yang merugikan," kata dosen pascasarjana pada Sekolah Tinggi Intelijen Negara (STIN) ini.
Menyinggung soal penguatan sistem penegakan hukum pada era digital, menurut dia, hal ini menjadi sangat penting mengingat meningkatnya kompleksitas ancaman siber yang dihadapi oleh pemerintah dan masyarakat.