Loading
Loading...
Menu BINUS

‘CONSCIENTIOUS OBJECTION’ DI ERA DIGITAL: ANTARA HUKUM, MORALITAS, DAN KEKUASAAN ALGORITMIK

Oleh SHIDARTA (April 2026)

Pada saat Amerika Serikat sedang terlibat perang dengan Vietnam, seorang petinju terkenal bernama Muhammad Ali (ketika itu secara legal masih bernama Cassius Marcellus Clay Jr.) menolak untuk menjalani wajib militer dan diterjunkan ke dalam perang tersebut. Ali mendasarkan penolakannya atas dasar keyakinan agama dan moral. Ia sempat dijatuhi hukuman pidana. Kasus ini bergulir sampai ke Mahkamah Agung. Isu yang krusial dibahas dalam kasus ini adalah apakah Ali memenuhi kriteria sebagai conscientious objector dan apakah pemerintah sah menolak klaim tersebut.

Hukum positif di Amerika Serikat memang membuka celah ini. Tepatnya, ketentuan mengenai conscientious objection terdapat dalam Military Selective Service Act, khususnya dalam Section 6(j) dari Selective Service Act 1948, yang tetap dipertahankan dalam revisi tahun 1967 (yang berlaku saat kasus Ali). Ketentuannya mengatakan: “Tidak seorang pun dapat diwajibkan mengikuti pelatihan dan dinas militer apabila, karena pelatihan dan keyakinan religiusnya, ia secara sadar menolak partisipasi dalam perang dalam bentuk apa pun (war in any form).” Frasa kunci dari ketentuan tersebut terletak pada kata-kata “religious training and belief” dan“war in any form.” Mahkamah Agung Amerika Serikat dalam putusan Clay v. United States (1971) membatalkan vonis pidana terhadap Ali tersebut secara bulat (8:0), dengan alasan adanya kegagalan pemerintah dalam memberikan dasar yang konsisten untuk menolak klaim Ali.

Istilah conscientious objection dapat diterjemahkan ke dalam bahasa Indonesia sebagai keberatan atau penolakan berdasarkan hati nurani. Alasan dari keberatan atau penolakan itu biasanya menggunakan referensi keyakinan agama, moral, atau landasan etika lainnya dalam keikutsertaan melakukan dinas militer atau kewajiban hukum tertentu. Orang yang mengajukan keberatan dan penolakan ini disebut conscientious objector.

Putusan ini menunjukkan bahwa konflik antara hukum dan hati nurani tidak hanya menyangkut substansi moral, tetapi juga legitimasi prosedural dalam sistem hukum. Saya ingin membahas persoalan conscientious objector ini ke dimensi lebih luas, bahkan ke iklim yang lebih kontemporer tatkala dunia dan keputusan-keputusan berdimensi moralitas seperti yang dialami oleh Ali tersebut, sudah bergeser jauh lebih kompleks lagi. Dunia sudah masuk ke era digital dengan algoritma sebagai instrumen prosedural sekaligus pedang kekuasaan. Jadi, pertanyaan klasik tentang conscientious objection ingin dibawa ke relevansi baru dalam lanskap digital, ketika hukum tidak lagi semata-mata hadir dalam bentuk norma tertulis, tetapi juga dalam bentuk sistem algoritmik yang mengatur kehidupan sosial.

Saya membayangkan sebuah kasus sebagai berikut. Seorang ahli perangkat lunak bekerja di sebuah perusahaan teknologi digital yang memiliki kontrak dengan pemerintah. Ia fokus mengembangkan sistem kecerdasan artifisial yang mampu menganalisis citra satelit dan drone,  mengidentifikasi target secara otomatis, dan merekomendasikan prioritas serangan. Awalnya, ia bersedia terlibat dalam pekerjaan ini karena dinyatakan bahwa proyek ini adalah bagian dari pertahanan keamanan nasional. Namun, ia kemudian mulai menyadari bahwa algoritma yang hadir dalam kecerdasan artifisial ini telah digunakan untuk menentukan target serangan militer. Sistem bekerja sebagai bagian dari rantai keputusan yang mematikan (lethal decision-making chain). Ahli ini sangat paham bahwa ia tidak mampu membuat sistem ini bekerja sempurna dan selalu terdapat risiko bias data yang dapat menyebabkan salah sasaran ke orang-orang sipil (civilian harm). Bias terjadi karena pengambilan keputusan tidak lagi sepenuhnya ada di tangan manusia. Algoritma yang dipakai untuk mengklasifikasi target dan mempengaruhi keputusan tentang hidup dan mati orang lain. Karena proyek militer ini sangat rahasia, ia juga melihat prosesnya sengaja dibiarkan tidak transparan (black box) dan karena itu sulit dipertanggungjawabkan. Ia dihadapkan pada posisi yang sulit mengambil keputusan mundur begitu saja, mengingat ia sudah tahu tentang banyak hal terkait proyek rahasia ini. Ada dilema, bahwa secara hukum dan kontraktual ia wajib menjalankan tugas profesionalnya, tetapi secara moral ia meyakini bahwa keterlibatannya mengandung arti sebagai partisipasi dalam tindakan yang berpotensi tidak adil atau tidak manusiawi.

Kita seperti tergagap mencermati kasus seperti ini apabila sekadar menggunakan analisis hukum dan moral. Kita membutuhkan pisau analisis yang lebih tajam!

Dalam buku “The Black Box Society: the Secret Algorithms that Control Money and Information” (2015), Frank Pasquale secara eksplisit mengkritik teknologi kecerdasan artifisial yang menjadi penguasa algoritmik, dengan berfokus pada ketertutupan (opacity), ketimpangan informasi (asymmetry), dan ketidakmampuan bertanggung jawab (lack of accountability).  Ketertutupan atau opositas (black box) terjadi jika sistem tidak dapat dipahami oleh publik. Informasi asimetris muncul karena ada pihak-pihak yang dikendalikan, yang tidak tahu bagaimana suatu keputusan dibuat. Kekuasaan yang tidak akuntabel juga hadir di sini karena sulit menentukan siapa yang harus bertanggung jawab. Semua hal yang disebutkan oleh  Pasquale terjadi pada kasus ahli perangkat lunak kita di atas. Inilah contoh yang kerap disebut sebagai “opaque systems exercising consequential power,” yaitu sebuah sistem yang opak (tak tembus cahaya) karena menjalankan kekuasaan yang sangat berdampak, sementara mekanisme pertanggungjawabannya lemah atau kabur.

Kita dapat menggunakan pisau analisis dari Pasquale untuk mencermati seberapa kasus ini dapat mengantarkan sang ahli perangkat lunak sampai pada posisi conscientious objector. Untuk itu ada lima proposisi yang dapat kita bangun.

Pertama, ketidaktransparanan atau opasitas merusak legitimasi normatif. Dengan perkataan lain, suatu sistem untuk menghasilkan keputusan dengan dampak serius, tetapi tidak dapat dijelaskan, seharusnya kehilangan legitimasi normatifnya. Dalam kasus di atas jelas ada AI targeting” yang tidak transparan, sehingga tidak bisa diberi penilaian yang relatif objektif.

Kedua, setiap kekuasaan tanpa akuntabilitas menciptakan konflik hati nurani. Ketika kekuasaan dijalankan tanpa mekanisme pertanggungjawaban yang jelas, individu yang terlibat di dalamnya akan menghadapi konflik moral yang intens. Ahli di atas melihat ada ambiguitas terkait siapa yang bertanggung jawab apabila terjadi akibat negatif terhadap kemanusiaan. Apakah dirinya, operator, atau negara?

Ketiga, asimetri informasi menghilangkan kapasitas moral agen. Ketika agen tidak memiliki informasi yang cukup tentang dampak tindakannya, kapasitasnya untuk bertindak secara moral menjadi terganggu. Dalam kasus di atas, sang ahli tidak benar-benar tahu bagaimana algoritma digunakan secara konkret dan siapa saja yang akan terdampak.

Keempat, sistem algoritmik dapat menghasilkan “delegated violence.” Artinya, algoritma memungkinkan kekerasan dilakukan melalui delegasi teknis, sehingga bertambah jauhlah jarak antara pelaku dan akibat moralnya. Hal ini terjadi karena kekerasan tidak lagi langsung, tetapi sudah dimediasi oleh jenis hukum baru, yaitu kode (code). Situasi ini menggiring kepada pengaburan tanggung jawab, kendati tanggung jawab itu tidak dapat dihilangkan sama sekali.

Kelima, dan ini menjadi “gong” analisis kita, bahwa conscientious objection menjadi mekanisme korektif terhadap black box power itu. Kita dapat mengatakan bahwa tatkala sistem tidak transparan dan tidak akuntabel, penolakan berbasis hati nurani seharusnya berfungsi sebagai mekanisme koreksi terhadap penyalahgunaan kekuasaan. Dalam kerangka Pasquale, sistem algoritmik yang opak dan tidak akuntabel tidak hanya menimbulkan persoalan teknis, tetapi juga menciptakan kondisi, yakni individu kehilangan kemampuan untuk memastikan bahwa tindakannya selaras dengan prinsip moral. Dalam kondisi demikian, conscientious objection tidak lagi sekadar hak, melainkan menjadi bentuk resistensi normatif terhadap kekuasaan yang tersembunyi.

Lalu, apa yang dapat direfleksikan atas semua hal ini terhadap konteks berhukum kita di Indonesia? Diskursus filsafat hukum sejak lama sudah menegaskan pentingnya dilema moral dipakai sebagai tolak ukur untuk menghindarkan orang dari pertanggungjawaban hukum.

Conscientious objection terhadap kekuasaan algoritmik memang masih menjadi isu baru. Namun, elemen-elemen yang meliputinya, seperti reduksi terhadap martabat manusia dan otonomi individu, diskriminasi, pengabaian atas due process of law yang transparan dan akuntabel, seharusnya sudah cukup untuk mengantarkan kita pada pintu masuk ke conscientious objection bagi siapa pun yang menghadapi dilema demikian. Jika dalam konteks klasik seseorang menolak mengangkat senjata, maka dalam era digital seseorang dapat menolak menulis kode yang menentukan siapa yang menjadi target. Dalam kedua situasi tersebut, yang dipertaruhkan bukan sekadar kepatuhan terhadap hukum, melainkan integritas moral manusia di hadapan kekuasaan. Ketika kekuasaan itu menjadi semakin tersembunyi dalam sistem algoritmik yang opak dan tidak akuntabel, maka peran hati nurani tidak boleh berkurang, melainkan justru menjadi semakin mendesak dan prioritas. Di titik inilah conscientious objection menemukan kembali relevansinya sebagai fondasi etis bagi hukum di era digital. Pada akhirnya, persoalan ini membawa kita kembali pada pertanyaan mendasar dalam filsafat hukum: apakah ketaatan terhadap hukum tetap wajib ketika hukum itu sendiri bekerja melalui sistem yang tidak dapat dipahami dan tidak dapat dipertanggungjawabkan? Dalam konteks kekuasaan algoritmik, jawaban atas pertanyaan tersebut tidak lagi cukup berhenti pada refleksi moral. Ia menuntut keberanian untuk mengakui bahwa dalam kondisi tertentu, penolakan atas dasar hati nurani justru merupakan bentuk kesetiaan yang lebih tinggi terhadap keadilan. Dengan demikian, conscientious objection di era digital bukanlah penyimpangan dari hukum, melainkan koreksi terhadapnya. (***)


Tinggalkan Komentar

Komentar Anda akan ditampilkan setelah melalui proses moderasi.