Gazze’deki bu uygulamalar, yapay zekânın savaş alanında test edildiği ilk geniş çaplı örnek olarak geleceğin savaş yöntemlerine dair ürkütücü bir tablo sunuyor

İsrail’in Gazze’de kullandığı yapay zekâ destekli askeri sistemler, hedef belirleme, yüz tanıma, veri analizleri ve insansız saldırı teknolojileriyle, sivil ölümleri dramatik biçimde artırdı. Bu sistemler insan karar alma mekanizmasını devre dışı bırakarak, hukuki ve etik sorumluluğu da bulanıklaştırıyor. Gazze’deki bu uygulamalar, yapay zekânın savaş alanında test edildiği ilk geniş çaplı örnek olarak, geleceğin savaş yöntemlerine dair ürkütücü bir tablo sunuyor.

Giriş: Bir Savaş Alanı Değil, Bir Deney Laboratuvarı

İsrail’in 2023 sonlarında Gazze’ye yönelik başlattığı operasyonlar, yapay zekâ teknolojilerinin aktif savaş ortamında sistematik biçimde kullanıldığı yeni bir dönemi temsil ediyor. Geliştirilen algoritmalar, hedef tespitinden yok edilmesine kadar tüm süreci neredeyse otonom hale getirirken, Gazze halkı bu teknolojilerin deneklerine dönüştü1.

Lavender: Algoritmaların Öldürme Listesi

İsrail’in geliştirdiği ve kamuoyuna 2024’te yansıyan “Lavender” adlı yapay zekâ destekli yazılım, potansiyel Hamas bağlantılı kişilerden oluşan bir veri tabanını saniyeler içinde analiz ederek otomatik olarak hedef listeleri oluşturdu2. Sistem, kişisel iletişim trafiği, telefon kayıtları, sosyal medya ağları gibi çeşitli veri kümelerinden çıkarılan kalıplara göre yaklaşık 37.000 kişiyi “tehlikeli” ilan etti3.

Bu sistemde, insan katkısı yalnızca “onay” süreciyle sınırlı kaldı. Bir istihbarat subayı, “Bir hedef için 20 saniye ayırıyordum, yalnızca onay veriyordum. İnsan olarak katma değerim sıfırdı” ifadeleriyle süreci anlattı4.

Yüz Tanıma Sistemleri: Güvenlik mi, Toplu Ceza mı?

İsrail ordusu, Gazze’nin kuzeyiyle güneyi arasında geçici kurulan kontrol noktalarına yerleştirdiği yüksek çözünürlüklü kameralarla Filistinlilerin yüzlerini otomatik olarak tarayarak yapay zekâ destekli tanıma sistemlerine aktardı5. Ancak yüzü kapalı olan bireylerde sistem hatalı sonuçlar üreterek, sivil kişilerin gözaltına alınmasına yol açtı6.

İki İsrailli istihbarat yetkilisi, sistemin sıkça yanlış eşleştirme yaptığını ve bu nedenle birçok sivilin sorguya çekildiğini kabul etti. Bu durum, YZ sistemlerinin ırksal önyargı barındıran veri setlerinden beslendiği eleştirilerini güçlendirdi7.

Dronlar, Otomatik Takip ve Arapça Algılayıcılar

Yapay zekâ, yalnızca sabit sistemlerde değil, İsrail’in silahlı insansız hava araçlarına (SİHA) da entegre edildi. Bu sistemler, Arapça dil analiz motorları sayesinde bireylerin konuşmalarını ya da dijital içeriklerini analiz ederek "tehlike dereceleri" çıkarmakta kullanılıyor8.

Sistemin çalışma mantığı, hedefin konuşmaları ya da mesajlaşmalarındaki bazı anahtar kelimelere göre davranışsal puanlama yapmasına dayanıyor. Ancak bağlamdan kopuk analizler nedeniyle, dini ya da kültürel içerikli mesajlar bile “tehlike sinyali” olarak algılanabiliyor9.

“Makine Soğukkanlıydı”: İnsan Etkisinin Sıfırlandığı Bir Ölüm Mekanizması

+972 Magazine ve Local Call’a konuşan 6 İsrail istihbarat mensubu, Lavender sisteminin kullanımında neredeyse hiçbir insani denetim mekanizmasının kalmadığını ifade etti10. Bir yetkili, “Makine soğukkanlıydı. Bu da hedefi vurmayı psikolojik olarak kolaylaştırdı” dedi. Bu itiraflar, karar alma süreçlerinin insansızlaşmasının etik sorumluluğu nasıl belirsizleştirdiğini açıkça ortaya koyuyor.

Uluslararası Hukuk Açısından: Yeni Suç Biçimi mi?

Cenevre Sözleşmeleri’ne göre, askeri operasyonlarda sivillerin korunması ve hedef ayrımı zorunludur. Ancak yapay zekâ sistemleri, bu ayrımı yeterli doğrulukla yapamadığı durumlarda orantısız sivil ölümlerine neden olabiliyor11. Örneğin, İbrahim Biari’ye yönelik saldırıda, YZ tarafından hedeflenen bir yapıya düzenlenen hava saldırısı sonucu 125’ten fazla sivilin ölmesi, orantılılık ilkesinin açık ihlali olarak değerlendiriliyor12.

Uluslararası hukukçular, bu gibi sistemlerin “algoritmik savaş suçu” kategorisinde değerlendirilmesi gerektiğini savunuyor13.

Etik Tartışmalar: Kontrolden Çıkan Teknoloji

İsrailli veri bilimci Hadas Lorber, bu tür sistemlerin ancak sıkı bir insan denetimiyle kullanılabileceğini, aksi takdirde yapay zekânın insan yaşamı üzerinde mutlak bir tahakküm kuracağını vurguluyor14.

Ayrıca AI Now Institute, Oxford Internet Institute ve Carnegie Ethics Lab gibi kurumlar, yapay zekâ teknolojilerinin askeri kullanımı konusunda uluslararası bağlayıcılığı olan yasal düzenlemelerin hızla oluşturulması gerektiğini belirtiyor15.

Sonuç: Gazze, Sadece Bir Trajedi Değil, Bir Uyarı

Gazze’deki askeri operasyonlar, yapay zekânın kontrolsüz kullanımının yol açabileceği felaketlerin ilk örneklerinden biri olabilir. İsrail’in sistematik biçimde yapay zekâya teslim ettiği karar süreçleri, yalnızca bir halkın değil, insanlığın geleceği açısından da karanlık bir döneme işaret ediyor. Eğer bu deneyim uluslararası hukuk ve etik bağlamında güçlü şekilde sorgulanmazsa, benzer algoritmik savaşların başka coğrafyalarda yaşanması kaçınılmaz olacaktır.

Dipnotlar:

  1. Human Rights Watch, “Israel: Gaza Surveillance Tech Raises Rights Concerns”, 2023.

  2. The New York Times, “Israel Uses AI to Identify Targets in Gaza”, 2024.

  3. +972 Magazine & Local Call, “Lavender: The AI system Israel uses to bomb Gaza”, 2024.

  4. Yuval Abraham, “The Machine Did It Coldly”, 2024.

  5. Al Jazeera Investigations, “Facial Recognition at Gaza Checkpoints”, 2024.

  6. HRW, 2023.

  7. Amnesty International, “Automated Apartheid”, 2023.

  8. Defense One, “AI Voice Recognition in Drone Warfare”, 2023.

  9. Carnegie Ethics Lab, “Bias in AI Language Analysis”, 2022.

  10. +972 Magazine & Local Call, 2024.

  11. ICRC (Uluslararası Kızılhaç Komitesi), “AI and International Humanitarian Law”, 2023.

  12. NYT, 2024.

  13. Oxford Internet Institute, “Algorithmic Warfare and Accountability”, 2023.

  14. Hadas Lorber, “AI and the Ethics of Warfare”, Times of Israel Interview, 2024.

  15. AI Now Institute, “The Militarization of Artificial Intelligence”, 2023.