İsrail ordusunun 7 Ekim 2023 tarihinden bu yana yoğunlaşan saldırıları, özellikle Gazze'de gerçekleşen katliamlarla dünya gündemine oturdu. Son günlerde ortaya çıkan detaylar ise İsrail'in yapay zeka destekli bir makineyle sivilleri gözetmeksizin gerçekleştirdiği katliamları tartışma konusu haline getirdi.

İsrail ordusu uzun süredir yapay zeka teknolojilerinden faydalanıyor olsa da, Lavender adı verilen bu sistem herkesin tahmin edemeyeceği bir vahşetin ortaya çıkmasına neden oldu. Geliştirilen bu teknoloji, tamamen insandan bağımsız kararlar veren, ciddi hatalar yapan ve sivil gözetimi neredeyse olmayan bir "katliam makinesi" olarak nitelendirilebilir.

İsrailli istihbarat elitlerinin geliştirdiği Lavender, Gazze'de çocuk, kadın, yaşlı demeden bombardımanlar gerçekleştiriyor. İsrail ordusunun Lavender programında hedeflerin nasıl tanımlandığı, kullanılacak mühimmatın nasıl belirlendiği ve güvenlik birimlerinin sistemin hatalarını nasıl görmezden geldiği bir gazetecinin detaylı raporunda yer alıyor.

İsrail’e karşı boykotun ekonomik etkileri: Büyük şirketler nasıl etkilendi? İsrail’e karşı boykotun ekonomik etkileri: Büyük şirketler nasıl etkilendi?

Lavender, yapay zeka teknolojisiyle donatılmış bir sistem olarak karşımıza çıkıyor. Sistem, veriler ve algoritmalar kullanarak hedefleri belirliyor ve saldırıların nerede gerçekleştirileceğine karar veriyor. Son aşamada ise sistemin seçtiği bombalama mühimmatı kullanılıyor. Örneğin, Lavender tarafından işaretlenen düşük rütbeli hedefler, tasarruf amacıyla pahalı silahlar yerine "aptal bombalar" adı verilen mühimmatla vuruluyor.

İsrail'in bu yapay zeka sistemi, 37 bin Filistinliyi şüpheli militan olarak belirlemiş ve evlerini bombalama hedefi olarak işaretlemiş. Lavender, Hamas ile zayıf veya hiç bağlantısı olmayan kişileri de hedef almasına rağmen İsrail ordusu bu sistemi kullanmaya devam etmiş.

Özellikle Gazze'de kullanılan Lavender, sadece Hamas üyelerini değil, sıradan Filistinlileri de hedef alıyor. Sistemin yaptığı hatalardan daha da önemlisi, İsrail güvenlik birimlerinin bu hataları görmezden gelerek her düşük rütbeli Hamas üyesi için 15 veya 20 sivilin ölümünü "kabul edilebilir hata" olarak nitelendirmesi.

İsrail'in yapay zeka destekli Lavender sistemi, Filistin'deki dramı ve İsrail'in insanlık suçlarını bir kez daha gözler önüne seriyor. Bu sistem, sivil ayrımı yapmadan binlerce insanın ölümüne yol açarak soykırıma varan bir tehdit oluşturuyor.

Bu olay, uluslararası hukukun yanı sıra yapay zekanın potansiyel tehlikelerini de gözlerAşağıdaki metin, İsrail'in yapay zeka destekli katliam aygıtı Lavender hakkında duyduğum en son bilgilere dayanmaktadır. Ancak, lütfen unutmayın ki ben bir yapay zeka modeliyim ve gerçek zamanlı haberleri takip etme veya doğrulama yeteneğim yoktur. Bu nedenle, verdiğim bilgilerin güncelliği konusunda dikkatli olmanızı öneririm.

Son zamanlarda ortaya çıkan haberlere göre, İsrail ordusu tarafından geliştirilen yapay zeka teknolojisi Lavender, Gazze'deki sivil hedeflere yönelik katliamlarda kullanılmıştır. Lavender, insana müdahale olmaksızın kararlar alabilen ve ciddi hatalar yapan bir yapay zeka sistemidir. Bu durum, insanlık suçu boyutunda bir tehdit oluşturabilir.

İsrail ordusu, uzun süredir çeşitli yapay zeka teknolojilerini kullanmaktadır. Ancak Lavender, daha önce görülmemiş bir vahşet seviyesine ulaşmaktadır. Lavender, Gazze'de çocuklar, kadınlar ve yaşlılar dahil olmak üzere sivilleri hedef alan bombardımanlar gerçekleştirmektedir. Lavender programının nasıl çalıştığı ve güvenlik birimlerinin sistemin hatalarını nasıl görmezden geldiği konularında detaylı bir rapor mevcuttur.

Lavender, yapay zeka teknolojisiyle donatılmış bir sistemdir. Hedefleri belirlemek ve saldırıların gerçekleştirileceği yerleri seçmek için veriler ve algoritmalar kullanır. Sistem, seçtiği hedeflere uygun bombalama mühimmatını kullanır. Ancak raporlara göre, Lavender tarafından işaretlenen düşük rütbeli hedefler, daha ucuz ve etkisiz mühimmatla vurulmaktadır.

Lavender'in kullanımıyla, İsrail'in 37 bin Filistinliyi şüpheli militanlar olarak belirlediği ve evlerini bombalama hedefi olarak işaretlediği belirtilmektedir. Sistemin Hamas ile bağlantısı olmayan sivilleri hedef almasına rağmen, İsrail ordusu Lavender'i kullanmaya devam etmiştir.

Özellikle Gazze'de kullanılan Lavender, Hamas üyelerinden ziyade sıradan Filistinlileri hedef almaktadır. Ancak daha da önemlisi, İsrail güvenlik birimlerinin bu hataları kabul edilebilir olarak nitelendirdiği ve binlerce sivilin ölümünü göz ardı ettiği iddia edilmektedir.

İsrail'in yapay zeka destekli Lavender sistemi, Filistin'deki trajediyi ve İsrail'in insanlık suçlarını bir kez daha gözler önüne sermektedir. Bu sistem, sivil ayrımı yapmadan binlerce insanın ölümüne yol açarak büyük bir tehdit oluşturmaktadır.

Kaynak: AA-Anadolu Ajansı