Seorang pakar kecerdasan buatan (AI) menyebut Israel menggunakan teknologi AI (artificial intelligence) dalam agresinya ke Jalur Gaza, dengan dukungan dari raksasa teknologi global seperti Google, Microsoft, dan Amazon, yang diduga ikut terlibat dalam kejahatan perang serta menormalisasi pembunuhan massal warga sipil dengan dalih keputusan algoritma.
Haidi Khallaf, mantan insinyur keamanan sistem di OpenAI (pengembang ChatGPT) dan kini penasihat di Now Institute for AI, memperingatkan tentang risiko besar penggunaan AI dalam operasi militer, terutama karena ketidakakuratan sistemnya. Ia menegaskan bahwa jika terbukti Israel melakukan kejahatan perang dengan bantuan teknologi dari perusahaan-perusahaan tersebut, maka mereka dapat dianggap sebagai pihak yang ikut bertanggung jawab.
Dalam wawancara dengan kantor berita Anadolu, Khallaf menjelaskan bahwa militer Israel mengandalkan sistem AI seperti “Hasbora” dan “Lavender” dalam perang di Gaza untuk pengawasan massal, pemilihan target, dan pelaksanaan serangan yang telah menewaskan puluhan ribu warga sipil. Lembaga HAM menyebut sistem ini berkontribusi pada serangan tanpa pandang bulu.
Khallaf menyebut penggunaan AI yang tidak akurat dapat membuka jalan bagi pembunuhan massal yang dinormalisasi, seperti yang terjadi di Gaza.
Dia mengingatkan, “Saat keputusan serangan dilimpahkan pada algoritma, militer bisa cuci tangan dan menyatakan ‘bukan kami, itu keputusan sistem’.”
Ia juga menyoroti bahwa Israel menggunakan AI dalam hampir seluruh tahap serangan, dari pengumpulan intelijen, pemilihan target berdasarkan data satelit dan komunikasi, hingga eksekusi. Bahkan, sistem seperti Gemini (Google) dan ChatGPT (OpenAI) digunakan untuk menyusup ke sistem komunikasi Palestina dan menerjemahkan percakapan untuk menentukan target berdasarkan kata kunci.
Menurutnya, proses verifikasi target oleh AI dilakukan secara dangkal, dan akurasi sistemnya dilaporkan hanya sekitar 25 persen. Ini membuat AI setara dengan senjata acak dan sangat berbahaya jika tidak disertai pengawasan ketat. Ia menyebut ini sebagai bentuk “otomatisasi keliru” yang membawa risiko besar.
Khallaf juga mengungkap bahwa jejak digital keputusan AI sangat sulit ditelusuri, sehingga mustahil menentukan siapa yang harus bertanggung jawab atas jatuhnya korban sipil.
Dia menegaskan bahwa dunia sedang menuju ke arah otomatisasi sistem persenjataan tanpa akuntabilitas hukum, yang saat ini didukung oleh Israel, Departemen Pertahanan AS, dan Uni Eropa. Ketidaksiapan kerangka hukum dan teknologi dalam menghadapi perang berbasis AI menjadi celah berbahaya yang belum ditangani.
Khallaf menyebut bahwa sejak 2021, perusahaan seperti Google dan Amazon telah menyediakan layanan cloud dan AI kepada militer Israel, kerja sama yang semakin diperluas sejak Oktober 2023. Perusahaan lain seperti Palantir juga disebut terlibat, meskipun detailnya tidak dipublikasikan.
Menurutnya, perusahaan-perusahaan ini tahu betul risiko dan akurasi teknologi mereka, namun tetap secara terbuka menyediakan teknologi tersebut untuk militer Israel.
“Jika terbukti digunakan dalam kejahatan perang, maka kerja sama ini menjadikan mereka mitra yang jelas dalam kejahatan tersebut,” tegasnya.
Tudingan ini menguat di tengah laporan bahwa perang di Gaza juga digunakan sebagai ajang uji coba kebijakan teknologi dan pengaruh opini publik melalui media sosial, menjadikan perang digital sebagai pelengkap perang militer.
Sumber: Anadolu Agency