Tren penggunaan kecerdasan buatan (AI) semakin meningkat di kalangan masyarakat. Perkembangan ini turut merambah pelayanan publik yang adaptif, termasuk di lingkungan lembaga peradilan.
Sejarah mencatat, konsep kecerdasan buatan telah muncul sejak tahun 1955-1956 dengan program awal bernama Logic Theorist. Namun, adopsi masif terhadap AI baru terjadi dalam beberapa tahun terakhir, terutama setelah kemunculan ChatGPT dari OpenAI. Produk ini memperkenalkan antarmuka interaktif yang mudah diakses, memungkinkan masyarakat umum merasakan langsung pengalaman berinteraksi dengan sistem AI.
Berbagai pembaruan fitur membuat teknologi ini semakin menjanjikan, bahkan membuka peluang penggunaannya dalam penyusunan putusan pengadilan. Namun demikian, mengingat fungsi lembaga peradilan yang sangat prudent, analisa terhadap potensi pelanggaran etik menjadi krusial sebelum adopsi AI diterapkan dalam praktik peradilan.
Bagaimana Kecerdasan Buatan Bekerja?
Untuk memahami potensi pelanggaran etik, harus dipahami terlebih dahulu cara kerja kecerdasan buatan. Secara umum, teknologi ini mampu menyelesaikan persoalan menggunakan prinsip dasar logika premis jika–maka. Konsep ini menyerupai pola berpikir manusia dalam menarik kesimpulan berdasarkan kejadian tertentu.
Seiring waktu, pendekatan tersebut berkembang menjadi lebih kompleks melalui penggunaan basis data yang luas dan pola-pola probabilistik. Kompleksitas ini mengaburkan batas premis sederhana dan menjadikan AI mampu menghasilkan kesimpulan yang kontekstual.
Dalam konteks ChatGPT, setidaknya ada empat syarat agar AI dapat berfungsi sebagaimana mestinya:
1. Basis data yang besar. AI dilengkapi dengan miliaran kata dari beragam sumber teks.
2. Kemampuan memahami pola dan asosiasi antar data. AI tidak hanya menyimpan, tetapi juga memaknai konteks antar basis data.
3. Kemampuan memahami instruksi (prompt). AI menerjemahkan pertanyaan, perintah, maupun sanggahan.
4. Kemampuan merespons secara kontekstual dan dinamis. AI menyesuaikan jawaban dengan konteks dan dapat diperbaiki bila ada klarifikasi.
Bagaimana dengan AI berbasis gambar, suara, atau animasi? Prinsip kerjanya serupa, hanya saja basis datanya berbeda. Misalnya, dalam pengolahan gambar, AI mengenali gaya (style) visual yang umum muncul. Gaya ini menjadi dasar penilaian terhadap elemen dalam gambar, seperti wajah, tubuh, atau latar belakang. Dengan demikian, instruksi seperti “hapus latar belakang” akan dieksekusi berdasarkan identifikasi pola visual. Prinsip yang sama berlaku pada AI yang memproses suara, animasi, dan lainnya.
Bagaimana Hakim Menyusun Putusan?
Penyusunan putusan oleh hakim dimulai dengan musyawarah untuk meneguhkan fakta hukum yang diperoleh dari pembuktian kemudian menentukan pertimbangan hukum untuk menuju pada amar putusan. Setelah musyawarah selesai, hakim menyusun putusan sesuai dengan konsep dalam Surat Keputusan Ketua Mahkamah Agung Nomor 359/KMA/SK/XII/2022.
Dalam praktiknya, hakim akan memindahkan isi penting dari berita acara persidangan ke dalam konsep putusan, menuliskan pertimbangan hukum dan menuliskan amar dalam konsep tersebut. Setelah disusun, putusan direviu untuk menghindari kesalahan redaksional, lalu dibacakan dan ditandatangani.
Bagaimana AI Dapat Mengambil Alih Penyusunan Putusan?
AI berpotensi mengambil alih penyusunan putusan jika dipenuhi empat prasyarat tadi, dengan tambahan bahwa AI diberi akses pada data hukum dan yurisprudensi. Simulasi berikut menggambarkan skenario tersebut:
1. Hakim mengunggah berita acara persidangan ke AI, dan AI diminta menyimpulkan fakta hukumnya. AI yang telah mempelajari alat bukti dan kekuatan pembuktian, akan menampilkan hasil berupa fakta hukum.
2. Hakim memerintahkan AI menyusun pertimbangan dan amar putusan berdasarkan fakta tersebut. AI yang telah mempelajari berbagai dokumen hukum, akan menampilkan hasil berupa pertimbangan dan amar putusan.
3. Hakim memerintahkan AI menyusun putusan lengkap sesuai format SK KMA. AI yang telah mempelajari konsep putusan, akan menampilkan hasil putusan yang siap dibacakan.
Apakah Menyusun Putusan dengan AI Melanggar Etika?
Etika hakim diatur dalam Keputusan Bersama Ketua Mahkamah Agung dan Ketua Komisi Yudisial tahun 2009 tentang Kode Etik dan Pedoman Perilaku Hakim (KEPPH). Dalam konteks ini, ada dua butir etika yang patut diperhatikan:
1. Pelanggaran Etika Bertanggungjawab (Butir 6.2 KEPPH)
Hakim dilarang mengungkap atau menggunakan informasi rahasia di luar tugas peradilan. Meski penyusunan putusan adalah tugas peradilan, ketika proses tersebut diserahkan pada sistem eksternal seperti ChatGPT, timbul potensi eksploitasi data. Terlebih, dalam Terms of Use ChatGPT (per-11 Desember 2024), dinyatakan bahwa input pengguna dapat digunakan untuk pengembangan layanan, termasuk kemungkinan dibaca oleh pihak manusia. Risiko kebocoran data—terutama dalam perkara asusila atau yang menyangkut rahasia negara—menjadi ancaman nyata terhadap integritas peradilan.
2. Pelanggaran Etika Bersikap Profesional (Butir 10.4 KEPPH)
Hakim wajib menghindari kekeliruan dalam membuat putusan. Namun, ChatGPT sendiri menyatakan bahwa output-nya tidak selalu akurat dan tidak dapat dijadikan sumber kebenaran tunggal. Dengan demikian, AI tidak bisa menjadi pengganti otoritas profesional hakim tanpa melanggar prinsip etik ini.
Bagaimana Bersikap Adaptif terhadap AI?
Meski demikian, tidak bisa dipungkiri bahwa AI memiliki keunggulan. Sikap adaptif dapat dilakukan dengan beberapa cara berikut:
1. Baca Ketentuan Penggunaan
Ketahui batasan dan kebijakan layanan sebelum memakai AI. Jika bertentangan dengan etika hakim, sebaiknya dihindari.
2. Gunakan Akun Anonim
Gunakan identitas acak agar penyedia layanan tidak mengaitkan identitas pengguna dengan data perkara. Selain itu, gunakan juga opsi pengecualian dalam melakukan perekaman data jika disediakan oleh penyedia.
3. Hindari Mengunggah Dokumen Persidangan
Dokumen persidangan baik sebagian maupun seluruhnya yang dimasukkan, bisa masuk ke dalam basis data AI dan dapat muncul dalam sesi lain.
4. Bangun AI Internal Sendiri
Masalah etika bukan pada teknologinya, melainkan pada siapa yang mengendalikannya. Lembaga peradilan sebaiknya membangun sistem AI sendiri, dengan jaminan keamanan dan kontrol terhadap data yang diproses. OpenLLM menjadi salah satu AI yang dapat dibangun dengan sumber daya internal.
5. Jadikan AI Sebatas Rekan Diskusi
Kelebihan AI ada pada basis datanya, semakin banyak basis datanya maka semakin luas pemahamannya. Namun diantara seluruh kelebihan itu, masih dimungkinkan terdapat kekeliruan dalam pemahaman yang dirangkai oleh AI. Itu artinya, AI tidak dapat digunakan untuk menggantikan kecerdasan murni. Meskipun demikian, seluruh pemahaman yang dimiliki oleh AI dapat dimanfaatkan dalam nuansa rekan diskusi.
Sebagai rekan diskusi, AI dapat digunakan untuk men-challenge logika hakim sebelum penyampaian pendapat ketika bermusyawarah. AI dapat juga digunakan untuk menjabarkan dasar hukum, itupun dengan verifikasi penuh oleh hakim. Rekan diskusi berbasis AI ini, selama anonimitas hakim terjaga, dapat menjadi gaya baru sebagai bahan musyawarah-penyusunan putusan hakim. AI secara umum tidak memiliki kepentingan untuk memberikan pendapat/penilaian, sehingga lebih netral dalam memberikan sudut pandang tertentu.
Penutup
AI memberikan banyak peluang untuk efisiensi kerja, namun dalam konteks penyusunan putusan oleh hakim, kehati-hatian menjadi hal yang mutlak. Etika, kerahasiaan, dan tanggung jawab profesi tetap menjadi pilar utama yang tidak boleh dikompromikan.
Referensi
*Gugerty, Leo. (2006). Newell and Simon's Logic Theorist: Historical Background and Impact on Cognitive Modeling. Proceedings of the Human Factors and Ergonomics Society Annual Meeting. 50. 880-884. 10.1177/154193120605000904.
*Surat Keputusan Ketua Mahkamah Agung Nomor 359/KMA/SK/XII/2022
*https://openai.com/policies/privacy-policy/
*https://openai.com/policies/row-terms-of-use/
Tidak ada komentar:
Posting Komentar