Ahli militer dan teknologi memperingatkan satu hal memilukan: alat kecerdasan buatan (AI) yang dipakai pasukan Israel dalam paket militer mereka tidak mampu membedakan secara andal antara sipil dan militer, dan dirancang untuk mengambil keputusan membunuh secara massal tanpa pengawasan manusia yang memadai.

Elias Hanna, pakar militer dan strategi, menjelaskan bahwa AI kini digunakan di semua tingkatan (politik, strategi, operasional, hingga taktik) mengubah cara pengambilan keputusan di medan perang.

“Peran AI adalah mengumpulkan dan menganalisis data besar, lalu mengusulkan sasaran agar proses pengambilan keputusan dipercepat,” kata Hanna. Ia menambahkan bahwa ketika ‘bank sasaran’ utama habis, sistem teknis itu menghasilkan sasaran baru berdasarkan data yang dimilikinya.

Menurut Hanna, sistem itu dilatih pada data masif dan dikaitkan dengan sumber informasi terbuka untuk memperbarui dan menambah daftar target. Polanya menyerupai apa yang ia sebut “perang kuasa digital”, sebuah delegasi wewenang kepada mesin yang mengumpulkan, menverifikasi, lalu menentukan tindakan tanpa kembalinya ke unsur manusia.

Beberapa perangkat lunak dan sistem AI yang diidentifikasi sebagai bagian dari operasi itu antara lain:

  • Fire Factor — menjadwalkan target dan menghitung jumlah bahan peledak untuk menghancurkan sasaran.
  • Depth of Wisdom — melacak informasi terowongan di Gaza dan menyusun strategi menumpaskannya.
  • Chemist — bertindak sebagai alat peringatan untuk risiko bagi pasukan selama misi taktis.
  • Lavender — model AI yang menganalisis data ponsel, gambar, dan media sosial; menurut Hanna, model ini sangat berpihak karena sumber data serta peta pelatihan yang cenderung mendukung kepentingan Tel Aviv.

Hanna juga menyinggung penggunaan robot pembawa bahan peledak dalam skala besar dan sistem seperti Arbel yang meningkatkan akurasi tembakan lewat integrasi dengan senapan dan perangkat penglihatan malam.

Ia memberi contoh mengerikan: bom jenis GBU-32 yang dijatuhkan ke kompleks perumahan (meski kosong sekalipun) berpotensi besar menyebabkan korban sipil, sementara fitur di sistem seperti Lavender memungkinkan pengguna menargetkan jumlah korban sipil tertentu berdasarkan pangkat militer pemutusan keputusan.

Dalam ranah hukum dan etika, Jessica Dorsey, ahli penggunaan AI yang bertanggung jawab, memperingatkan bahwa bencana nyata muncul ketika daftar target otomatis memasukkan warga sipil sementara pengawasan manusia minimal atau tidak memadai.

“Ini berpotensi melanggar aturan penargetan internasional,” ujarnya, menuding pemerintah Israel bertanggung jawab atas jatuhnya korban sipil meski mengandalkan alat yang seharusnya melindungi.

Kekhawatiran lain menyangkut bias dalam model, algoritme yang, menurut para pakar, menghasilkan sasaran yang menguntungkan pihak tertentu. Dorsey juga menyebut peran perusahaan teknologi global, termasuk nama-nama besar, yang menyediakan produk dipakai dalam konteks militer ini.

Meski demikian, Hanna menilai kegagalan Israel mencapai tujuan strategisnya selama dua tahun terakhir bukan semata soal superioritas teknologi. Pejuang Hamas, menurutnya, memanfaatkan medan, taktik urban, dan jaringan terowongan sehingga efektivitas kekuatan teknologi (tank, amunisi canggih, dan AI) terbatas dalam lingkungan padat penduduk.

Kurangnya “unsur manusia etis” di puncak pengambilan keputusan, tambah Hanna, memupus kemungkinan teknologi itu menjamin kemenangan tanpa konsekuensi kemanusiaan.

Intinya: ketika mesin diberi wewenang mengambil nyawa, dan pengawasan manusia melemah, siapa yang memikul tanggung jawab moral dan hukum atas korban sipil? Di tengah hujan algoritme dan ledakan, jawaban itu adalah kunci dari debat hukum, etika, dan politik yang tak bisa diabaikan lagi.

LEAVE A REPLY

Please enter your comment!
Please enter your name here