Indonesia Penting Segera Menyiapkan Regulasi Tata Kelola AI yang Baik

Dalam pertemuan antara CEO Microsoft Satya Nadella dengan Presiden Joko Widodo (30/4), materi mengenai arah pengembangan teknologi kecerdasan artifisial (AI) menjadi salah satu substansi penting yang dibicarakan. Hal ini memperlihatkan bahwa Indonesia hari ini menjadi bagian yang tak-terpisahkan dari pengembangan ekosistem AI secara global. Apalagi seiring dengan berkembangnya teknologi Generative AI, yang bagi Indonesia sendiri dapat meningkatkan kapasitas produksi sedikitnya mencapai USD 243,5 miliar atau setara dengan 18% dari PDB di tahun 2022 (ELSAM dan Access Partnership, 2023). Namun demikian, selain besarnya peluang ekonomi dari pemanfaatan AI, beragam risiko juga mengikutinya, sehingga perlu disiapkan sejumlah langkah mitigasi, termasuk melalui penyiapan beberapa pengaman (safeguard), dengan pengembangan kerangka regulasi.

Kebutuhan mengenai regulasi AI tersebut sejalan dengan Resolusi Majelis Umum PBB tentang Memanfaatkan peluang sistem kecerdasan artifisial yang aman, terjamin, dan terpercaya untuk pembangunan berkelanjutan (Seizing the opportunities of safe, secure and trustworthy artificial intelligence systems for sustainable development), yang diadopsi pada 21 Maret 2024 yang lalu (A/78/L.49). Resolusi ini menjadi landmark resolution yang merekognisi pentingnya pengembangan AI yang “aman, terjamin, dan dapat dipercaya”. Dalam resolusi tersebut antara lain ditekankan pada negara-negara anggota PBB untuk mengembangkan dan mendukung pendekatan dan kerangka peraturan dan tata kelola terkait dengan sistem kecerdasan artifisial yang aman, terjamin, dan terpercaya.

Negara-negara di dunia memang merespons secara beragam dalam pengembangan tata kelola AI, Amerika Serikat misalnya pada Oktober 2023 telah mengeluarkan Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, yang setara dengan Peraturan Presiden. Kemudian Pada 8 Desember 2023, Parlemen EU telah menyetujui AI Act (Undang-Undang AI), yang menekankan pendekatan berbasis risiko dalam tata kelola AI, dengan membagi AI menjadi (i) unacceptable risks, (ii) high-risks, (iii) limited risks, and (iv) minimal risks. Pendekatan legislasi seperti EU akan segera diikuti oleh Korea Selatan, Jepang, dan Taiwan di Asia. Sementara pada level global, dalam pertemuan di Hiroshima (Mei 2023), para pemimpin negara-negara G7 juga telah menyerukan pengembangan dan penerapan standar teknis untuk menjaga AI tetap dapat dipercaya, dan telah diluncurkan sebagai dokumen resmi pada 30 Oktober 2023 lalu. Negara-negara ASEAN sendiri pada Februari 2024 telah menyetujui ASEAN Guide on AI Governance and Ethics, yang diharapkan dapat menjadi rujukan bagi negara-negara ASEAN dalam pengembangan sistem AI yang bertanggungjawab, termasuk model tata kelolanya.

Model tata kelola AI sendiri dapat menggunakan beberapa kerangka pendekatan sekaligus: teknologi, etika, dan hukum. Pendekatan teknologi mencoba untuk memahami apakah kecerdasan artifisial menghasilkan masalah yang pantas ditangani oleh hukum dan peraturan atau cukup menggunakan infrastruktur teknologi, misalnya melalui sejumlah skema standarisasi. Sementara pendekatan etika mencoba menekankan refleksi moralitas atau kehidupan yang baik, misalnya dengan mengadopsi sejumlah prinsip seperti: privasi, akuntabilitas, security and safety, transparansi, keadilan dan non-diskriminasi, kontrol manusia atas teknologi, dan promosi nilai-nilai kemanusiaan, dan lain sebagainya. Sedangkan pendekatan hukum mencoba memvisualisasikan bagaimana undang-undang yang ada dan berlaku mengikat terhadap kecerdasan artifisial. 

Indonesia secara khusus melalui Kementerian Komunikasi dan Informatika (Kominfo) telah mengeluarkan Surat Edaran (SE) Menkominfo No. 9/2023 tentang Etika Kecerdasan Artifisial. Prinsip-prinsip etika dalam SE tersebut mengakomodasi sejumlah elemen, yang meliputi: inklusivitas, kemanusiaan, keamanan, aksesibilitas, transparansi, kredibilitas dan akuntabilitas, pelindungan data pribadi, pembangunan dan lingkungan berkelanjutan, dan kekayaan intelektual. Namun demikian, dalam perkembangannya, mengingat besarnya dampak dari pemanfaatan teknologi kecerdasan artifisial, seperti halnya pengalaman di sejumlah negara di atas, penting bagi Indonesia untuk mulai mengembangkan regulasi tata kelola kecerdasan artifisial yang lebih mengikat (legally binding), tidak semata-mata menggunakan kerangka etika. 

Kerangka etika sebagaimana dituangkan dalam SE Menkominfo di atas semestinya dimaknai sebagai tahap awal dalam pengembangan dan penguatan tata kelola AI, yang selanjutnya ditindaklanjuti dengan pembentukan kerangka regulasi, sebagaimana ditekankan oleh Resolusi PBB. Pengembangan regulasi ini akan menjadi tahapan penting, dalam mengidentifikasi model regulasi yang tepat bagi teknologi ini. Mekanisme safeguard dengan menekankan pada pendekatan hak asasi manusia, akan memperkuat jaminan perlindungan bagi warga, sekaligus rujukan dalam mendorong pertumbuhan ekosistem industri kecerdasan artifisial. Dalam jangka pendek, pembentukan regulasi di tingkat kementerian, seperti peraturan menteri dapat menjadi pilihan, sebelum dalam jangka menengah mengembangkan format pengaturan yang lebih tinggi, seperti peraturan presiden atau undang-udang khusus tentang AI.


Jakarta, 30 April 2024

Lembaga Studi dan Advokasi Masyarakat (ELSAM)

Press ESC to close