ABAD ke-20 mencatat perang dalam dentuman artileri dan infanteri. Abad ke-21 memperkenalkan babak baru, yakni perang algoritmik, sunyi namun mematikan. Di Gaza, kita menyaksikan bagaimana kecanggihan teknologi yang semestinya memperkuat peradaban, justru digunakan untuk membunuh secara sistematis dan nyaris tanpa jejak.
Setelah serangan 7 Oktober 2023, militer Zionis Israel meluncurkan agresi genosida besar-besaran ke Gaza sampai saat ini, yang memakan puluhan ribu korban sipil. Namun di balik gemuruh bom, terdapat senjata tak terlihat, yaitu kecerdasan buatan, sistem pengawasan digital, dan perang algoritma.
Dalam serangan genosida ini, penjajah Zionis Israel tak lagi hanya mengandalkan kekuatan militer konvensional. Mereka telah memadukan sistem senjata fisik dengan perang siber, sistem pengawasan masif, spyware, GPS jamming, dan teknologi AI canggih seperti Lavender dan The Gospel—sebuah simbiosis antara kecepatan mesin dan kekuasaan tanpa akuntabilitas.
Akibatnya, kehidupan warga sipil di Gaza bukan hanya terancam oleh ledakan, tetapi juga oleh klik diam-diam dalam sebuah ruang server yang menentukan siapa yang hidup dan siapa yang mati.
Baca Juga: Amerika: Pelindung Penjahat Perang, Penjual Keadilan di Palestina
Dalam sebuah hasil investigasi terbaru tersebut mengupas wajah baru penindasan digital yang sedang berlangsung, bagaimana teknologi yang semestinya membangun peradaban -menyatukan manusia dan memajukan komunikasi – justru dibajak untuk menghancurkan kehidupan, secara sistematis, presisi, dan tanpa jejak yang mudah dituntut secara hukum. Ini bukan sekadar perang biasa, ini adalah genosida berbasis algoritma.
Sejak serangan 7 Oktober 2023 dan dimulainya agresi genosida besar-besaran ke Gaza, dunia menyaksikan gelombang kehancuran yang belum pernah terjadi sebelumnya. Namun di balik gemuruh bom dan debu reruntuhan, terselip satu fakta yang luput dari perhatian publik global, yaitu peran teknologi digital dan kecerdasan buatan dalam menyusun daftar target, memetakan lokasi serangan, dan bahkan menentukan kemungkinan jumlah korban sipil.
Dalam genosida terbaru ini, Penjajah Zionis Israel memperkenalkan sesuatu yang berbeda, sebuah sistem algoritma yang disebut “The Gospel” dan “Lavender” yang digunakan untuk mengidentifikasi target manusia, bahkan hingga level individu, dengan kecepatan dan volume yang tak tertandingi.
Penggunaan sistem tersebut memungkinkan peningkatan jumlah target dari 50 per tahun menjadi 100 per hari, banyak di antaranya adalah rumah-rumah pribadi yang dianggap milik anggota Hamas tingkat bawah, tanpa perbedaan antara kombatan dan non-kombatan.
Baca Juga: Zionis Penjajah Abadi Tanah Para Nabi
Pada April 2024, dunia dikejutkan oleh laporan investigasi bahwa sistem kecerdasan buatan (AI) militer Israel bernama Lavender digunakan untuk menargetkan ribuan warga Palestina di Gaza. Namun bukan hanya kehadiran AI yang mengkhawatirkan, laporan yang dipublikasikan oleh Tech for Palestine menyebut bahwa Lavender juga memanfaatkan data dari aplikasi pesan paling populer di dunia, yakni WhatsApp, milik raksasa teknologi Meta.
Sebanyak 37.000 Warga Palestina Ditandai oleh AI, Hanya Karena Kontak WhatsApp
Sebuah laporan investigasi eksklusif oleh +972 Magazine dan Local Call mengungkap eksistensi sistem AI rahasia bernama Lavender. Program tersebut dikembangkan militer Israel untuk mengotomatisasi identifikasi target pemboman di Gaza.
Menurut kesaksian enam petugas intelijen aktif, Lavender menggunakan big data dan machine learning untuk menyusun daftar ribuan nama yang secara otomatis dijadikan target, tanpa proses verifikasi manusia yang memadai. Bahkan, hasil output AI diperlakukan “seperti keputusan manusia.”
Baca Juga: Berfikir Kritis atas Kebijakan Tarif Trump
“Lavender tidak hanya membantu memilih target. Lavender adalah target itu sendiri,” ungkap salah satu informan dalam laporan investigatif tersebut.
Teknologi ini beroperasi di bawah komando Unit 8200, unit intelijen siber terbesar di IDF (Pasukan Militer Israel), yang dipimpin oleh Brigjen Yossi Sariel, penulis buku The Human-Machine Team. Buku ini mempromosikan kolaborasi manusia dan mesin dalam operasi militer, namun kenyataannya justru menciptakan pembunuhan massal yang didesain mesin.
Lavender dikembangkan sebagai alat identifikasi cepat terhadap apa yang disebut “tersangka” oleh intelijen Israel. Sistem itu memproses hingga 37.000 nama warga Palestina di Gaza, dan menentukan target serangan berdasarkan data digital. Salah satu indikator utamanya? Jika seseorang tergabung dalam grup WhatsApp yang juga diikuti oleh seseorang yang diduga sebagai militan.
Ini bukan lagi soal intelijen akurat. Ini algoritma berbasis asosiasi sosial, yang menghukum siapa saja yang berada dalam jaringan kontak digital tertentu.
Baca Juga: Gaya Selangit Isi Dompet Seuprit
Seorang narasumber dari militer Israel mengakui bahwa mereka menyerang rumah-rumah tanpa ragu, bahkan ketika target sedang bersama anak dan keluarganya. “Lebih mudah menjatuhkan bom ke rumah,” katanya. AI ini dirancang untuk memilih kondisi itu: target yang bersama keluarga, di rumah, dalam situasi “nyaman”.
Paul Biggar, software engineer dan pendiri Tech for Palestine, menyebut hal ini sebagai bentuk pembunuhan “pra-kejahatan” (pre-crime), seperti dalam film dystopia Minority Report, namun kini benar-benar terjadi di dunia nyata, di Gaza.
Meta, Pelanggaran HAM, dan Kematian di Balik Enkripsi
WhatsApp selama ini mengklaim sebagai pelindung privasi dengan sistem end-to-end encryption. Namun tudingan itu menggoyahkan keyakinan dunia terhadap janji tersebut. Meta membantah, menyatakan bahwa mereka “tidak memiliki informasi bahwa laporan tersebut akurat.” Namun, mereka tidak membantah keterlibatan total, hanya mengatakan tidak menyediakan “bulk data ke pemerintah mana pun.”
Baca Juga: Palestina dan Masa Depan Al-Aqsa: Apa yang Bisa Dilakukan Umat Islam?
Pertanyaannya jika benar tidak ada pelanggaran, mengapa platform Meta juga telah banyak dikritik karena membungkam konten pro-Palestina, menghapus akun jurnalis Palestina, dan memblokir tagar seperti #FreePalestine?
Meta bahkan dilaporkan mempekerjakan mantan agen Unit 8200 Israel, unit cyber-intelligence yang dikenal memata-matai warga Palestina. Praktik itu disebut sebagai bentuk “pengawasan digital sistematis” terhadap penduduk yang sedang berada dalam zona konflik paling berbahaya di dunia.
Apakah Meta hanyalah perusahaan teknologi? Atau sudah menjadi bagian dari sistem kolonial digital yang membantu genosida?
Tentu kita juga masih ingat tragedi terbaru yang sempat viral dengan sebuah video terbakarnya hidup-hidup seorang jurnalis Gaza. Di halaman Rumah Sakit An-Nassar, beberapa wartawan mendirikan tenda seadanya. Di sanalah mereka berlindung dan tetap siaga, menyalurkan berita terakhir ke dunia. Kejadian tersebut sama motifnya menimpa pada dua kontributor jurnalis untuk forum media dan jurnalis di Indonesia yang diinisiasi SMART 171, di mana penulis termasuk di dalam forum tersebut, yang gugur sebelumnya akibat serangan Zionis. Mereka para jurnalis Palestina bukan hanya menyampaikan fakta, mereka adalah mata dan suara rakyat Gaza kepada dunia luar.
Baca Juga: Tahun 2025, Indonesia Banjir Mualaf
Namun siapa sangka, saat mereka berbicara secara live dengan salah satu redaksi forum media Indonesia, saat suara mereka mengudara, saat mereka mengirim pesan di WhatsApp dan berbagi lokasi karena alasan keamanan, itu semua justru bisa jadi senjata pembunuh.
Kini kita tahu bahwa Meta, pemilik WhatsApp, dituding ikut “memberi makan” sistem AI militer Israel bernama Lavender. Sistem inilah yang menarget ribuan orang hanya karena keterkaitan digital: berada dalam grup WhatsApp yang sama, mengirim lokasi, atau aktif dalam komunikasi dengan jaringan media internasional.
Artinya, posisi kedua kontributor tersebut sangat mungkin terlacak karena komunikasi itu. Percakapan yang seharusnya menyelamatkan nyawa -mengirimkan bantuan, meminta evakuasi, atau melaporkan kebenaran- bisa saja menjadi alasan sistem AI itu mengunci target.
Ketika tenda wartawan dibombardir. Ketika RS An-Nassar diserang. Ketika koneksi terakhir terputus dan suara mereka lenyap dari udara. Kini kami bertanya-tanya, Apakah komunikasi dengan kita adalah alasan mereka dibunuh? Dan jika jawabannya ya, apa artinya itu bagi semua jurnalis dunia? Bagi kita yang memilih berdiri di sisi kebenaran?
Baca Juga: Peran Masjid Al-Aqsa dalam Persatuan Umat Islam di Seluruh Dunia
Meta bisa menyangkal. Tapi nyatanya, mesin-mesin pembunuh itu haus data. Dan mereka mendapatnya dari tempat yang kita percayai setiap hari, yakni aplikasi pesan, media sosial, platform komunikasi. Data menjadi peluru. Percakapan menjadi pelacak. Selanjutnya jurnalis bahkan kepada siapa pun dapat menjadi target.
Belum lagi Microsoft dan raksasa teknologi dunia baru-baru ini berada di bawah sorotan tajam setelah laporan menunjukkan bahwa layanan kecerdasan buatan (AI) dan platform komputasi awannya, Azure, digunakan secara masif oleh militer penjajah Zionis Israel pasca serangan 7 Oktober 2023. Tuduhan tersebut memunculkan kekhawatiran serius terkait keterlibatan perusahaan teknologi global dalam praktik militer yang kontroversial.
Menurut laporan The Guardian yang terbit Januari lalu, Microsoft menandatangani kontrak bernilai jutaan dolar untuk menyediakan layanan IT, penyimpanan data, serta ribuan jam dukungan teknis kepada militer Israel. Ketergantungan militer Israel pada platform cloud seperti Microsoft Azure, Google Cloud, dan Amazon Web Services disebut meningkat tajam untuk keperluan pengolahan data pengawasan skala besar.
Spyware Pegasus dan Pengawasan Total
Baca Juga: Menjaga Spirit EcoRamadhan: Sucikan Diri, Kurangi Sampah
Selain AI dan platform digital, Israel mengandalkan spyware Pegasus untuk menyusup ke perangkat komunikasi warga sipil dan aktivis. Menurut Israeli Internet Association, sekali Pegasus berhasil ditanamkan, operator bisa mengakses semua data di perangkat, bahkan yang sudah dihapus atau dibuat oleh pihak ketiga, mengaktifkan kamera dan mikrofon tanpa sepengetahuan pengguna, dan melacak lokasi, merekam percakapan, dan menganalisis jaringan sosial target.
Seluruh data yang dikumpulkan kemudian diproses oleh AI untuk menghasilkan informasi perilaku yang sangat detail, dari rutinitas harian hingga kecenderungan politik.
Selain itu, Israel juga menggunakan drone canggih yang dilengkapi sensor AI untuk mendeteksi keberadaan manusia berdasarkan panas tubuh dan suara, menganalisis struktur bangunan untuk menentukan lokasi strategis serangan. Juga mengidentifikasi kombatan dan non-kombatan, sebuah klaim yang kerap berujung salah target.
Lebih mengkhawatirkan lagi, drone ini dapat melakukan GPS jamming, meniru sinyal jaringan dan menyadap semua komunikasi dari perangkat korban tanpa diketahui. Ini membuat korban merasa perangkatnya berfungsi normal, padahal semua aktivitasnya disadap secara real-time.
Baca Juga: The Power of Ikhlas
Kita Target Selanjutnya!
Serangan ini bukan hanya ke Gaza. Mereka akan menarget dunia. Kita selanjutnya.
Dalam dua dekade terakhir, Israel menjelma menjadi raksasa siber global. Menurut data dari Visualizing Palestine, pada 2020, perusahaan siber Israel menyedot 31% investasi global di sektor tersebut, dengan ekspor militer senilai $8,8 miliar dan ekspor siber mencapai $10 miliar.
Namun di balik kehebatan itu, terselip agenda kolonial. Teknologi yang dikembangkan tak hanya digunakan untuk kepentingan ekonomi, melainkan juga untuk memperkuat cengkeraman penjajahan di Palestina dan mengontrol narasi kawasan.
Baca Juga: Tak Perlu Bangga, Zionis! Neraka Sudah Siap Menerimamu
Israel dikenal mempraktikkan “spyware diplomacy”, dengan menjual teknologi pengawasan kepada negara-negara sebagai imbalan atas normalisasi hubungan. Di sisi lain, rakyat Palestina menjadi kelinci percobaan utama dari teknologi pengawasan dan perang siber paling mutakhir di dunia.
Selain itu, dengan infrastruktur militer yang digerakkan AI dan sistem pemantauan massal, Israel berhasil membangun mekanisme pembunuhan tanpa wajah, tanpa pelaku, dan tanpa penyesalan.
Namun, penggunaan AI dan spyware tidak dapat dijadikan alasan untuk membenarkan pembunuhan lebih dari 50.000 warga sipil di Gaza. Justru sebaliknya, kebergantungan pada teknologi yang tak memiliki dimensi etika manusia memperparah kejahatan, menjadikannya lebih cepat, lebih luas, dan lebih sulit dipertanggungjawabkan.
Ancaman yang dibawa oleh kolaborasi militer dan kecerdasan buatan bukan hanya milik Palestina. Dunia sedang menghadapi era baru—di mana mesin bisa memilih siapa yang hidup dan siapa yang mati. Di tangan rezim kolonial seperti Israel, teknologi menjadi alat genosida terencana.
Komunitas internasional harus segera menyusun regulasi global terhadap penggunaan AI dan spyware dalam konflik bersenjata. Pengadilan internasional harus memproses kejahatan kemanusiaan ini secara terbuka dan transparan.
Karena jika kita tidak bertindak hari ini, besok bukan hanya Gaza yang terbakar. Besok, seluruh dunia bisa menjadi target yang dipilih oleh algoritma.
Inilah yang harus disadari oleh masyarakat global, bahwa penggunaan AI dalam perang bukan sekadar strategi militer. Ini adalah awal dari era pembunuhan berdasarkan data, dengan logika algoritmik yang dingin, kejam, dan tidak manusiawi.
Jika hari ini orang Palestina dibunuh karena berada dalam grup WhatsApp, siapa yang akan menjadi target berikutnya? Aktivis di London, jurnalis di Jakarta, mahasiswa di Ankara, atau pendukung Palestina di New York?
Sistem ini menciptakan preseden mengerikan, di mana semua orang bisa menjadi target hanya karena opini atau jaringan digitalnya. Jika dunia membiarkan ini terus berlangsung, tidak ada tempat yang benar-benar aman bagi siapa pun yang membela kemanusiaan.
Ini bukan hanya genosida terhadap rakyat Gaza. Ini adalah serangan terhadap seluruh umat manusia. Terhadap kita semua.
Mereka yang melawan ketidakadilan, yang berdiri di sisi korban, kini sedang diawasi dan ditandai oleh mesin. Israel sedang menguji senjata masa depan—dan Gaza adalah laboratoriumnya.
Jangan diam. Jangan percaya bahwa ini hanya terjadi “di sana.” Karena “di sana” akan menjadi “di sini”, lebih cepat dari yang kita duga.[]
Mi’raj News Agency (MINA)