[SIARAN PERS] AI and The Policy Practices Impacting On Racial Profiling | Difussion #77

Agustus 5, 2022 3:40 pm || By

Yogyakarta, 28 Juli 2022 — Kecerdasan buatan atau artificial intelligence (AI) merupakan salah satu terobosan kemajuan teknologi. Kini, telah banyak industri yang memanfaatkan penggunaan kecerdasan buatan untuk kegiatan operasional. Bahkan, penggunaan kecerdasan buatan telah menjamah berbagai aspek kehidupan sehari-hari manusia. Di balik penggunaan kecerdasan buatan yang kian meningkat, terdapat masalah yang muncul. Salah satunya, teknologi tersebut dikhawatirkan dapat mendiskriminasi atau membahayakan kelompok tertentu. Menanggapi hal tersebut, CfDS bekerjasama dengan Manchester Metropolitan University mengadakan Difussion #77 yang mengangkat tema ‘AI and The Policy Practices Impacting On Racial Profiling’’ dengan mengundang Patrick Williams (Dosen, Departemen Sosiologi, Manchester Metropolitan University) dan Wahyono, S.Kom., P.hD. (Dosen, Departemen Ilmu Komputer dan Elektronika, Universitas Gadjah Mada) selaku narasumber serta Kevin Wong (Direktur, Criminal Justice, Policy Evaluation and Research Unit (PERU), Manchester Metropolitan University) selaku moderator (https://www.youtube.com/watch?v=mvdlXeblumA).

Teknologi Kecerdasan Buatan dan Sistem Monitoring Cerdas

Mengawali presentasinya, Wahyono menjelaskan konsep dasar dari teknologi kecerdasan buatan. Pada pokoknya, penciptaan kecerdasan buatan berangkat dari keinginan untuk dapat mengimplementasikan kecerdasan manusia ke dalam suatu mesin atau program. Kecerdasan manusia mampu menampung data dan informasi yang berubah secara konstan dalam jumlah banyak. Kendati demikian, untuk memproses hal tersebut dibutuhkan suatu strategi agar manusia dapat memahami informasi yang tersedia. Kecerdasan buatan merupakan salah satu teknologi yang dapat membantu manusia dalam hal tersebut.

Menurut Yono, terdapat empat komponen utama yang dibutuhkan dalam pengembangan kecerdasan buatan, yaitu data, algoritma, kekuatan komputasi (computing power), dan skenario. Dalam kesempatan tersebut, Yono fokus terhadap satu turunan dari kecerdasan buatan, yakni sistem visi berbasis kecerdasan buatan (AI-based vision system). Sistem visi adalah sistem atau program yang diharapkan dapat memahami, menginterpretasikan, dan memahami input visual pada komputer.

Salah satu bentuk implementasi dari AI-based vision system adalah Intelligent Surveillance System (ISS). Pada dasarnya, dalam ISS, teknologi kecerdasan buatan akan dilekatkan dalam sistem pengawasan. Umumnya, ISS diimplementasikan melalui CCTV. Salah satu manfaat dari ISS adalah untuk meningkatkan keamanan di area publik. Selain untuk meningkatkan keamanan di area publik, ISS juga memiliki manfaat dalam beberapa bidang kehidupan, seperti perlindungan lingkungan dan kesehatan. Misalnya, ISS dapat dimanfaatkan untuk menghasilkan peringatan level air untuk memitigasi bencana banjir dan mendeteksi penggunaan masker di area publik untuk mendukung pencegahan COVID-19.

Yono mengungkapkan, “Penggunaan kecerdasan buatan bukanlah penelitian yang berdiri sendiri. Oleh karena itu, kita perlu mengkolaborasikan antara satu sektor dengan sektor lainnya. Dalam hal ini, kolaborasi dapat dibangun antara pihak pemerintah, masyarakat, dan industri.”

Penggunaan Teknologi Kecerdasan Buatan dan Kriminalisasi Diskriminatif

Patrick Williams memulai presentasinya dengan menunjukkan tabel berisi data individu yang telah melalui proses peradilan pidana di Inggris dan Wales. Berdasarkan tabel tersebut, kelompok minoritas enam kali lebih mungkin untuk dihentikan dan digeledah oleh pihak berwajib daripada kelompok mayoritas, atau dalam kasus ini disebut kelompok kulit putih. Menurut Patrick, kelompok minoritas lebih mungkin untuk ditangkap, dikenai tuntutan pidana, dan dihukum atas pelanggaran mereka. Padahal, terdapat statistik resmi yang mengkonfirmasi bahwa kelompok minoritas sebenarnya melakukan pelanggaran pada tingkat yang sama seperti kelompok kulit putih. Jadi, dapat disimpulkan bahwa terdapat celah antara tingkat kejahatan yang sebenarnya dan kriminalisasi yang dilakukan.

Di sisi lain, teknologi berbicara tentang ketidakefisienan manusia. Kegagalan pihak berwajib dan penegakan hukum mendorong penggunaan teknologi untuk proses pengawasan atau bahkan kriminalisasi. Kini, pengenalan wajah dan penggunaan kamera CCTV masih cenderung salah mengenali (mis rekognisi) kelompok minoritas, seperti orang kulit hitam. Mis rekognisi tersebut kemudian dapat memicu pertemuan dengan pihak berwajib. Selain itu, teknologi juga mendorong ekstraksi data masyarakat melalui pemantauan media sosial. Berbagai jenis data seperti data catatan kesehatan dan pendidikan juga seringkali digabungkan. Hal-hal tersebut merupakan contoh pengelolaan data yang bermasalah.

Patrick menyatakan, “Asumsi bahwa teknologi itu netral dan dapat melakukan fungsi manusia dengan cara yang bermanfaat bagi masyarakat harus dipertanyakan. Data hanyalah cerminan dari birokrasi dalam praktik penegakan hukum. Oleh karena itu, teknologi kecerdasan buatan bergantung pada data. Jika data yang digunakan adalah data yang diskriminatif, maka kita akan mulai menanamkan ide diskriminatif ke dalam teknologi.”

Jika terus dibiarkan, tindakan diskriminatif yang kian subur dapat memunculkan dampak emosional terhadap masyarakat dan mendorong ketidakpercayaan masyarakat terhadap aparat penegak hukum. Pada komunitas tertentu, hal tersebut dapat merusak pemahaman mereka tentang kepemilikan (belonging) dan kewarganegaraan (citizenship). Oleh karena itu, Patrick mengingatkan bahwa kolaborasi antar pemegang kepentingan sangatlah penting untuk memerangi penggunaan teknologi yang dikhawatirkan dapat memperburuk disparitas ras, etnis, dan agama di masyarakat.

Penulis: Aridiva Firdharizki
Editor: Firya Q. Abisono

Tags: ,