Oleh SHIDARTA (Agustus 2025)

Kosakata “responsibilty” sangat lazim diterjemahkan menjadi “pertanggungjawaban”. Jadi, “responsible AI” secara mudah dapat dialihbahasakan menjadi “kecerdasan artifisial yang bertanggung jawab”. Namun, kosakata “tanggung jawab” ini menjadi terminologi untuk berbagai kata, seperti “responsibility”, “liability”, dan “accountability”.  Dari skalanya, “responsibility” memiliki lingkup paling luas, sehingga kerap dipakai untuk menyatakan adanya “moral responsibility”, “legal responsibility”, dan “post-duty responsibility” (kendati frasa yang terakhir ini cukup jarang ditemukan).

Black’s Law Dictionary mendefinisikan “responsibility” sebagai “the state of being answerable for an obligation, and includes judgment, skill, ability, and capacity.” Jika tanggung jawab ini ingin difokuskan ke aspek hukum, maka terminologi “liability” tampaknya yang dipilih. Untuk itu dikenal ada “strict liability”, “liability based on fault”, “product liability”, dan sebagainya. Dalam kamus hukum tersebut lema “liability” diuraikan secara panjang lebar dengan berbagai kasus yang menjadi preseden menurut hukum di Amerika Serikat. Terakhir, terdapat kata “accountability” yang di dalam kamus tersebut sayangnya hanya dijelaskan sangat singkat, yaitu “state of being responsible or answerable.” Padahal, “accountability” biasanya dilekatakan pada tanggung jawab seseorang pasca-menjalankan tugas tertentu.

Secara etimologis, kata “responsible” berakar dari bahasa Latin “respondere” yang berarti menjawab atau merespons. “Re” berarti kembali, dan “spondere” bermakna “berjanji” atau “menyanggupi”. Kata ini kemudian diadopsi sebagai bahasa Prancis Kuno dan bahasa Inggris Pertengahan. Artinya kemudian menjadi “yang sanggup dimintai jawabannya”.

“Reponsible AI” mengandung pengertian bahwa pengembangan dan penerapan kecerdasan artifisial harus mampu bertanggung jawab atas segala dampaknya terhadap semua pihak. Kecerdasan artifisial tidak boleh hanya canggih secara teknis, melainkan juga harus dijamin aman, adil, transparan, dan bermanfaat bagi manusia. Kecerdasan artifisial seperti ini harus menempatkan manusia sebagai titik pusat (human centrism), bukan justru meminggirkan manusia dengan segala kemanusiaannya. Tanggung jawab seperti ini adalah tanggung jawab yang sejalan dengan keadaban manusia sepanjang masa.

Sila kedua dari Pancasila mengamanatkan agar masyarakat, bangsa, dan negara kita dibangun berlandaskan kemanusiaan yang adil dan beradab. Ini adalah nilai aksiologis yang penting dalam mengiringi perjalanan kita berbangsa dan bernegara, termasuk dalam pemanfaatan teknologi kecerdasan artifisial. Atas dasar itu, padanan kosakata “responsible AI” tidak cukup jika hanya menggunakan frasa “keceradasan artifisial yang bertanggung jawab”. Penulis mengusulkan untuk mencari padanan kata yang lebih mencerminkan tujuan pemanfaatan teknologi kecerdasan artifisial itu, yakni dalam rangka lebih memanusiawikan manusia.

Dalam bagian umum Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial ditekankan bahwa  pelaku usaha dan penyelenggara sistem elektronik, baik lingkup privat maupun publik, sebagai pemangku kepentingan dalam penyelenggaraan kecerdasan artifisial berupaya untuk mengatur penggunaan kecerdasan artifisial secara etis, termasuk dalam pengambilan keputusan yang mempengaruhi masyarakat luas. Pengembangan pedoman etika kecerdasan artifisial bertujuan untuk memastikan bahwa teknologi ini digunakan dengan mempertimbangkan prinsip etis, kehat-hatian, keselamatan, dan berorientasi pada dampak positif.

Apa kosakata yang paling tepat untuk merangkum semua prinsip pengembangan dan penerapan kecerdasdan artifisial yang bertanggung jawab sehakiki seperti diuraikan di atas? Dalam artikel ini, penulis menawarkan satu kata, yaitu “berkeadaban”. “Responsible AI”  diberi padanannya menjadi “kecerdasan artifisial berkeadaban”. Kata “berkeadaban” sekilas lebih sering digunakan sebagai alih bahasa dari kata “civilized”. Namun, aksentuasi dari kekhawatiran terhadap dampak pengembangan dan penerapan kecerdasan artifisial justru terletak pada  dehumanisasi itu, berupa semakin terkikisnya keadaban masyarakat manusia berhadapan dengan teknologi. Kecerdasan artifisial berkeadaban harus mampu menjawab tantangan ini.  (***)