Lpmarena.com–Center for Digital Society (CfDS) UGM bersama Kolaborasi Riset dan Inovasi Industri Kecerdasan Artifisial (KORIKA) menyelenggarakan acara Digital Expert Talks yang ke-21, dengan judul “Menavigasi Inovasi Kejelasan Artifisial dan Urgensi Perlindungan Data Pribadi” secara daring pada Selasa (5/12) dalam kanal YouTube. Penggunaan serta keamanan data pribadi dalam Kecerdasan Artifisial (AI) menjadi sorotan pada webinar yang didukung oleh Google ini.
Ardhanti Nurwidya, Dewan Pengurus Asosiasi Praktisi Perlindungan Data Indonesia (APPDI), menjelaskan penggunaan data pribadi sebagai data training pada AI bermasalah. Ia menuturkan, AI tidak memiliki pemahaman antara yang pribadi dan pelengkap informasi. Mengingat sistem AI sendiri perlu kelengkapan data, di mana semakin lengkap data yang dimasukkan pengguna sejalan juga dengan kemahiran AI dalam memproses serta memberikan informasi kepada pengguna.
“Kalau misalnya ada seseorang bertanya kepada saya ‘Dhanti, apakah kamu tahu alamatnya si A?’. Saya bisa memberikan ‘oh tapi saya tanya dulu ya sama si A apakah boleh ngasih alamatnya ke kamu,’ gitu. Tapi kalau AI tidak akan memahami itu, karena dia bekerja berdasarkan perintah. Jadi dia tidak punya rasa apakah itu data pribadi atau bukan,” ungkapnya.
Ardhanti juga menyebutkan bias menjadi masalah AI selanjutnya. Ia mengutip salah satu laporan Julia Angwin, dkk, yang berjudul Machine Bias, di mana mereka melakukan analisis pada perangkat lunak buatan Northpointe, yaitu Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), sebuah alat untuk meninjau residivisme seseorang. Hasilnya ditemukan adanya bias yang terjadi, dengan menilai orang kulit gelap memiliki risiko lebih besar untuk melakukan kembali kejahatan ketimbang kulit putih.
“Nah ini adalah contoh-contoh sifat bias gitu. Mungkin tidak melanggar peraturan, tetapi waktu data training itu diberikan kepada AI, somehow mereka itu [red: AI] memberikan data-data yang sifatnya bias dan membuat yang kulitnya hitam itu resikonya lebih tinggi, yang kulitnya putih itu resikonya lebih rendah,” imbuhnya.
Dari sisi hukum menurut Rindy, Sub Koordinator Kerjasama dan Kelembagaan Pengendalian Data Pribadi Kementerian dan Informatika, meski di Indonesia sendiri AI belum memiliki definisi yang jelas. Akan tetapi dilihat dari karakteristiknya di mana segala keputusan dihasilkan sistem atau algoritma baik itu dengan keterlibatan individu maupun tidak. Karena itu keputusannya sendiri ditentukan atas pertimbangan pengguna.
Dalam konteks Perlindungan Data Pribadi (PDP), ia merujuk pada UU No 27 tahun 2022 Tentang Perlindungan Data Pribadi dalam Pasal 47 yang menjelaskan bahwa pemrosesan data yang dilakukan AI adalah tanggung jawab dari pengendali data pribadi.
“Jadi semua keputusannya, semua dokumentasi, semua kegagalan PDP yang mungkin saja dihasilkan oleh AI, yang disampingkan oleh AI tersebut akan menjadi tanggung jawab dari pengendali,” jelasnya.
Adapun sejauh mana penggunaan data pribadi pengguna diproses, ia menjelaskan si pengendali data berkewajiban memenuhi hak pengguna yang di antaranya melindungi keamanan data dan harus transparan, hal tersebut juga sudah diatur dalam sistem perundang-undangan di Indonesia.
“Bahkan setelah diproses dan ternyata hasilnya tidak sesuai dengan ekspektasi dari subjek data atau merugikan bagi subjek data itu pun sudah diatur dalam Undang-Undang PDP, bahwa ada hak untuk mengajukan keberatan dan pengendali yang memiliki AI juga harus menyediakan mekanisme bagaimana untuk menanggapi keberatan tersebut,” tuturnya.
Reporter Khirza Zubadil Ashrof (Magang) | Redaktur Selo Rasyd Suyudi