senjata otonom

bahaya dan etika robot perang yang memutuskan sendiri

senjata otonom
I

Pada tahun 1862, seorang pria bernama Richard Jordan Gatling mematenkan sebuah penemuan yang ia yakini akan menyelamatkan banyak nyawa. Penemuan itu adalah senapan mesin pertama di dunia. Logika Gatling saat itu terdengar masuk akal: jika satu mesin bisa menembak secepat seratus tentara, maka kita hanya butuh sebagian kecil pasukan di medan perang. Lebih sedikit tentara di lapangan, berarti lebih sedikit manusia yang mati. Tentu saja, sejarah mencatat hal yang sebaliknya. Senapan Gatling tidak menghentikan perang, ia justru mengubah medan tempur menjadi pabrik pembantaian yang jauh lebih efisien. Pernahkah kita merenungkan, betapa seringnya niat baik manusia berjalan bergandengan tangan dengan ironi yang mematikan?

Hari ini, kita sedang berdiri di tepi jurang ironi yang sama. Namun kali ini, kita tidak berlomba menciptakan peluru yang lebih cepat. Kita sedang menciptakan peluru yang bisa berpikir.

II

Mari kita melangkah pelan-pelan ke era peperangan modern. Kita semua tahu tentang drone atau pesawat tanpa awak. Selama beberapa dekade terakhir, militer dunia menggunakan drone yang dikendalikan oleh manusia dari jarak ribuan kilometer. Manusia duduk di ruang ber-AC, menatap layar, dan menarik pelatuk menggunakan joystick. Secara psikologis, ini sudah menciptakan apa yang disebut sebagai moral distance atau jarak moral. Semakin jauh kita dari target, semakin mudah bagi otak kita untuk mencabut empati.

Namun, teknologi tidak berhenti di situ. Saat ini, ilmuwan militer sedang mengembangkan Lethal Autonomous Weapons Systems (LAWS). Teman-teman, ini bukan lagi sekadar robot tempur yang dikendalikan dengan remote. Ini adalah mesin yang diberi kecerdasan buatan (Artificial Intelligence), dilengkapi sensor canggih, dan diberi satu otoritas paling mengerikan: hak untuk memilih siapa yang hidup dan siapa yang mati, tanpa campur tangan manusia sama sekali. Mesin ini terbang, memindai medan, mendeteksi pola panas tubuh, mencocokkan wajah dengan database, lalu mengeksekusi tembakan. Semua diproses murni oleh algoritma, dalam hitungan milidetik.

III

Sekarang, mari kita bayangkan sebuah skenario kritis. Sebuah drone otonom berpatroli di area konflik. Kamera pendeteksinya menangkap sosok seseorang sedang memegang benda panjang berbentuk silinder di bahunya. Algoritma harus memutuskan dalam sepersekian detik. Apakah itu seorang pemberontak yang sedang memanggul peluncur roket? Ataukah itu seorang petani tua yang sedang memanggul cangkul?

Di sinilah letak masalah terbesarnya. Manusia memiliki sesuatu yang tidak bisa diubah menjadi kode biner: keraguan dan konteks empati. Seorang tentara manusia bisa melihat bahasa tubuh, membaca ketakutan di mata target, atau melihat ada anak kecil yang berlindung di balik kaki sang petani. Tentara itu bisa memilih untuk menurunkan senjatanya. Tapi kode komputer? Ia tidak merasakan ragu. Ia hanya membaca piksel. Jika kalkulasi probabilitasnya mencapai angka 85% bahwa benda itu adalah senjata, pelatuk ditarik. Pertanyaannya kemudian membesar di kepala kita: jika mesin salah sasaran dan membunuh warga sipil, siapa yang harus diseret ke pengadilan militer? Apakah komandannya? Apakah programmer yang menulis kodenya? Ataukah perusahaannya?

IV

Inilah realitas yang paling mengejutkan. Ketakutan terbesar kita selama ini mungkin salah arah. Kita terlalu banyak menonton film sci-fi dan membayangkan robot berbentuk kerangka besi bermata merah yang ingin menguasai dunia. Padahal, bahaya sebenarnya justru sangat sunyi, berukuran kecil, dan sama sekali tidak punya niat jahat. Kecerdasan buatan itu netral, dan itulah yang membuatnya menakutkan.

Dalam dunia sains data, ada fenomena yang disebut Black Box AI. Bahkan para ilmuwan yang menciptakan sebuah AI seringkali tidak tahu persis bagaimana AI tersebut mengambil kesimpulan akhir. Ia belajar sendiri dari jutaan data yang disuapkan padanya. Jika data pelatihan awalnya mengandung bias—misalnya sistem pengenalan wajah yang lebih sering salah mengidentifikasi ras tertentu—maka robot perang ini akan membawa rasisme bawaan ke medan tempur. Ia akan membunuh berdasarkan bias statistik. Kita sedang mendelegasikan keputusan paling sakral umat manusia—keputusan untuk mencabut nyawa—kepada kotak hitam matematis yang tidak bisa kita pahami sepenuhnya, apalagi kita mintai pertanggungjawaban.

V

Pada akhirnya, diskusi tentang senjata otonom bukanlah sekadar diskusi tentang kecanggihan teknologi militer. Ini adalah cermin besar yang menantang moralitas kita sebagai spesies. Sejarah peperangan selalu tentang manusia yang saling berhadapan. Betapapun brutalnya, selalu ada ruang untuk nurani, pengampunan, atau gencatan senjata di saat-saat terakhir.

Kita tentu tidak ingin mewariskan dunia di mana kematian diputuskan oleh kalkulator terbang. Membiarkan mesin mengambil alih tugas membunuh sama dengan melucuti sisa-sisa kemanusiaan kita di tengah gelapnya perang. Teman-teman, teknologi memang tidak bisa dihentikan, tapi ia bisa dan harus diarahkan. Sama seperti bagaimana dunia sepakat untuk melarang senjata kimia demi kemanusiaan, kita pun memiliki kekuatan untuk menuntut regulasi global yang tegas terhadap robot pembunuh. Karena pada akhirnya, mesin sehebat apa pun tidak punya hati untuk bersedih setelah pelatuk ditarik. Tugas kitalah untuk memastikan, bahwa jari yang berada di atas pelatuk tersebut, haruslah jari yang memiliki denyut nadi.