Makine Katilinin Hayaleti devam ediyor. Başkan Putin neye inanıyor?
Teknoloji

Makine Katilinin Hayaleti devam ediyor. Başkan Putin neye inanıyor?

Askeri robotların savunucuları (1), otomatik silahların insan yaşamını korumak için daha büyük yetenekler sağladığını ileri sürüyor. Makineler düşmana askerlerden daha yakınlaşabiliyor ve tehdidi doğru değerlendirebiliyor. Ve duygular bazen doğru kararları verme yeteneğini felç eder.

Öldürücü robotların kullanımını savunanların çoğu, daha az askerin ölmesi nedeniyle savaşların daha az kanlı hale getirileceğine inanıyor. Robotların, her ne kadar acıma hissetmeseler de, çoğunlukla savaş suçlarına yol açan panik, öfke ve intikam gibi olumsuz insani duygulara karşı bağışık olduklarını belirtiyorlar.

İnsan hakları aktivistleri ayrıca ordunun son yarım yüzyılda sivil kayıplarında büyük bir azalmaya yol açtığı ve ordunun robotlaşmasının savaş yasalarının daha sıkı uygulanmasına yönelik bir mekanizmanın devreye girmesine olanak sağladığı argümanını da kullanıyor. Makinelerin kendilerini savaş yasalarına uymaya zorlayan yazılımlarla donatıldığında etik hale geleceğini savunuyorlar.

Elbette çok ünlü olanlar da dahil olmak üzere çok sayıda insan yıllardır bu görüşü paylaşmıyor. Nisan 2013'te (2) sloganıyla uluslararası bir kampanya başlatıldı. Bu çerçevede sivil toplum kuruluşları otonom silahların kullanımının tamamen yasaklanmasını talep ediyor. Birçok ülkeden uzmanlar bu konuyu ilk kez Mayıs 2014'te Cenevre'de düzenlenen BM silahsızlanma konferansında tartışmak için bir araya geldi. Birkaç ay sonra İnsan Hakları İzleme Örgütü ve Harvard Üniversitesi'nden bilim adamları tarafından yayınlanan bir rapor, özerk olanların çok tehlikeli olacağını, kendi hedeflerini seçip insanları öldüreceklerini söyledi. Aynı zamanda kimin sorumlu tutulacağı da çok açık değil.

2. “Katil Robotları Durdurun” kampanyası kapsamında gösteri

Bir sürü küçük dron neler yapabilir?

Katil robotlarla (ROR) ilgili tartışmalar yıllardır sürüyor ve hız kesmeden devam ediyor. Son aylarda askeri robotları durdurmaya yönelik yeni girişimler ve bu türden yeni projeler hakkında bir dizi rapor geldi; hatta bunlardan bazıları gerçek savaş koşullarında test ediliyor.

Kasım 2017'de bir video ölümcül mini drone sürüleri ., korkunç bir eylemde. İzleyiciler, toplu halde ve otomatik silahlarla öldürmek için artık Predators'ın fırlattığı ağır savaş araçlarına, tanklara veya füzelere ihtiyacımız olmadığını gördü. Berkeley'de yapay zeka profesörü olan baş direktör Stuart Russell şunları söylüyor:

-

Sonbahar elli profesör Dünyanın önde gelen üniversiteleri, Kore İleri Bilim ve Teknoloji Enstitüsü (KAIST) ve ortağı Hanwha Systems'a bir çağrı imzaladı. üniversiteyle işbirliği yapmayacaklarını ve KAIST misafirlerini ağırlamayacaklarını açıkladılar. Sebebi ise her iki kurumun da yürüttüğü “otonom silah” yapımıydı. KAIST basında çıkan haberleri yalanladı.

Kısa bir süre sonra ABD'de 3'ten fazla Google çalışanı şirketin ordu için yaptığı çalışmaları protesto etti. Google'ın, askeri drone videolarındaki nesneleri ve yüzleri tanımak için yapay zekayı kullanmayı amaçlayan Maven kod adlı bir hükümet projesiyle ortaklık kurmasından endişe duyuyorlardı. Şirket yöneticileri, Maven'in amacının saldırganlık değil, hayat kurtarmak ve insanları yorucu işlerden kurtarmak olduğunu söylüyor. Protestocular ikna olmadı.

Savaşın bir sonraki kısmı açıklamaydı yapay zeka alanında uzman, dahil. bir Google projesi üzerinde çalışıyorum ve Elona Muska. Robot geliştirmeyeceklerine söz veriyorlar. Ayrıca hükümetlere bu silahları düzenleme ve kısıtlama çabalarını hızlandırma çağrısında bulunuyorlar.

Açıklamada özellikle "Bir insanın hayatına son verilmesi kararının asla bir makine tarafından verilmemesi gerektiği" belirtiliyor. Her ne kadar dünya orduları, bazen yüksek derecede özerkliğe sahip çeşitli otomatik cihazlarla donatılmış olsa da, birçok uzman, gelecekte bu teknolojinin tamamen özerk hale gelebileceğinden ve herhangi bir insan operatör veya komutanın müdahalesi olmadan öldürmeye olanak verebileceğinden korkuyor.

Uzmanlar ayrıca otonom ölüm makinelerinin kolaylıkla kontrolden çıkabileceği için “nükleer, kimyasal ve biyolojik silahlardan” daha tehlikeli olabileceği konusunda da uyarıyor. Toplamda, geçen yılın temmuz ayında Hayatın Geleceği Enstitüsü (FLI) himayesinde 170 kuruluş ve 2464 kişi tarafından imzalanan bir mektup vardı. 2019'un ilk aylarında, FLI ile bağlantılı bir grup tıp bilimci, yapay zeka (AI) kontrollü silahların geliştirilmesini yasaklayan yeni bir mektup çağrısında bulundu.

Geçtiğimiz yılın ağustos ayında Gnevo'da düzenlenen, askeri "katil robotlara" ilişkin olası yasal düzenlemelere ilişkin BM toplantısı... makinelerin başarısıyla sona erdi. Aralarında Amerika Birleşik Devletleri, Rusya ve İsrail'in de bulunduğu bir grup ülke, bu silahlara uluslararası yasak getirilmesine yönelik daha fazla çabayı engelledi (Belirli Konvansiyonel Silahlara İlişkin Sözleşme taslağı, CCW). Bunların gelişmiş otonom ve robotik silah sistemleri konusundaki çalışmalarıyla bilinen ülkeler olması tesadüf değil.

Rusya savaş robotlarına odaklanıyor

Başkan Vladimir Putin'in askeri yapay zeka sistemleri ve savaş robotları hakkında sıklıkla şu sözleri aktarılıyor:

-.

Açıkça otonom silahların geliştirilmesinden bahsediyor. Silahlı kuvvetlerin Genelkurmay Başkanı General Valery Gerasimov geçtiğimiz günlerde askeri haber ajansı Interfax-AVN'ye robot kullanımının gelecekteki savaşların ana özelliklerinden biri olacağını söyledi. Rusya'nın çaba gösterdiğini de sözlerine ekledi. savaş alanını tamamen otomatikleştirin. Başbakan Yardımcısı Dmitry Rogozin ve Savunma Bakanı Sergei Shoigu da benzer yorumlarda bulundu. Federasyon Konseyi Savunma ve Güvenlik Komitesi Başkanı Viktor Bondarev, Rusya'nın kalkınmaya çabaladığını söyledi Roju teknolojileribu, drone ağlarının tek bir birim olarak çalışmasına olanak tanıyacak.

İlk teletankların 30'lu yıllarda Sovyetler Birliği'nde geliştirildiğini hatırlarsak bu şaşırtıcı değil. Dünya Savaşı'nın başında kullanıldılar. Bugün Rusya da yaratıyor robot tankları giderek daha özerk hale geliyoruz.

Putin'in devleti yakın zamanda Suriye'ye kendi devletini gönderdi İnsansız savaş aracı Uran-9 (3). cihazın yer kontrol noktalarıyla teması kesildi, süspansiyon sisteminde sorunlar yaşandı, silahları mükemmel çalışmıyordu ve hareketli hedefleri vurmuyordu. Kulağa çok ciddi gelmiyor ama birçok kişi Suriye silme işleminin Rusların makineyi geliştirmesine olanak tanıyacak iyi bir savaş testi olduğunu düşünüyor.

Roscosmos, bu yılın Ağustos ayına kadar Uluslararası Uzay İstasyonuna iki robot göndermeye yönelik bir ön planı onayladı. Fedor (4) insansız Birlik'te. Yük gibi değil ama... Tıpkı RoboCop filmindeki gibi, Fyodor bir silah kullanıyor ve atış egzersizleri sırasında ölümcül bir doğruluk sergiliyor.

Şu soru ortaya çıkıyor: Uzaydaki bir robot neden silahlandırılsın ki? Bunun sadece yer uygulamaları meselesi olmadığına dair şüpheler var. Bu arada Rus silah üreticisi Kalaşnikof Dünya'da bir görselleştirme gösterdi. köle IgorekBu, her ne kadar kahkahalara neden olsa da şirketin otonom savaş araçları üzerinde ciddi şekilde çalıştığının sinyalini veriyor. Temmuz 2018'de Kalaşnikof, vur-ateş etme kararlarını vermek için kullanacağı bir silah yarattığını duyurdu.

Bu bilgilere Rus silah ustası Digtyarev'in küçük bir silah geliştirdiğine dair raporlar eklenmelidir. otonom tank Nerekht Kendi başına sessizce hedefine doğru ilerleyebilir ve ardından güçlü bir güçle patlayarak diğerlerini veya tüm binaları yok edebilir. Ve Tank T14 Armata Rus silahlı kuvvetlerinin gururu, olası uzaktan kumanda ve insansız sürüş için tasarlandı. Sputnik, Rus askeri mühendislerinin T-14'ü tamamen otonom bir zırhlı araç haline getirmek için çalıştığını iddia ediyor.

İtiraz Direktifi

ABD ordusunun kendisi, silahlarının özerklik düzeyine oldukça açık bir sınırlama getirdi. 2012 yılında ABD Savunma Bakanlığı, insanların silahlı robotların eylemlerine itiraz etme hakkına sahip olması gerektiğini belirten 3000.09 sayılı Direktifi yayınladı. (her ne kadar bazı istisnalar olsa da). Bu direktif yürürlükte kalır. Pentagon'un mevcut politikası, silah kullanımında karar verici faktörün her zaman bireysel olması ve bu kararın verilmesi yönündedir. savaş kanunlarına uygundur.

Amerikalılar onlarca yıldır uçan, Predator, Reaper ve diğer birçok süper makineyi kullanıyor olsalar da, bunlar otonom modeller değildi ve değiller. Operatörler tarafından uzaktan, bazen birkaç bin kilometre mesafeden kontrol ediliyorlar. Bu tür makinelerin özerkliğine ilişkin hararetli bir tartışma, prototipin prömiyeriyle başladı. X-47B uçağı (5) sadece bağımsız uçmakla kalmıyor, aynı zamanda bir uçak gemisinden havalanıp üzerine inip havada yakıt ikmali de yapabiliyor. Anlamı aynı zamanda insan katılımı olmadan ateş etmek veya bombalamaktır. Ancak proje henüz test ve inceleme aşamasında.

5. İnsansız X-47B'nin bir Amerikan uçak gemisinde test edilmesi

2003 yılında Savunma Bakanlığı tank benzeri küçük bir robotla deneyler yapmaya başladı. İSVEÇLER makineli tüfekle donatılmıştır. 2007 yılında Irak'a gönderildi. ancak program, robotun öngörülemeyen davranışlar sergilemeye ve tüfeği düzensiz bir şekilde hareket ettirmeye başlamasıyla sona erdi. Sonuç olarak ABD ordusu, silahlı yer robotlarına yönelik araştırmaları uzun yıllar boyunca bıraktı.

Aynı zamanda ABD Ordusu iş harcamalarını 20'te 2014 milyon ABD dolarından 156'de 2018 milyon ABD dolarına çıkardı. 2019 yılında bu bütçe şimdiden 327 milyon ABD dolarına yükseldi. Bu sadece birkaç yılda %1823'lük kümülatif bir büyüme anlamına geliyor. Uzmanlar, ABD ordusunun 2025 gibi erken bir tarihte savaş alanına sahip olabileceğini söylüyor insanlardan daha fazla robot asker var.

Son zamanlarda ABD Ordusu tarafından birçok tartışmaya neden oldu ve duyuruldu. ATLAS projesi () – otomatik. Medya bunu yukarıda bahsedilen 3000.09 sayılı Direktifin ihlali olarak değerlendirdi. Ancak ABD ordusu, bir kişiyi karar alma sürecinden dışlamanın söz konusu olmadığını reddediyor ve iddia ediyor.

Yapay zeka köpek balıklarını ve sivilleri tanıyor

Ancak otonom silah savunucularının yeni argümanları var. prof. Georgia Teknoloji Enstitüsü'nden robot bilimci Ronald Arkin, yayınlarında şunu belirtiyor: Modern savaşta, sivil kayıplarını önlemek için akıllı silahlara ihtiyaç vardır; çünkü makine öğrenimi teknikleri, yüksek değerli ve düşük değerli hedeflerin yanı sıra savaşçılar ve siviller arasında ayrım yapılmasına etkili bir şekilde yardımcı olabilir.

Bu tür AI becerilerine bir örnek, Avustralya sahillerinde devriye gezmektir. dronlar Küçük KarındeşenSidney Teknoloji Üniversitesi tarafından geliştirilen SharkSpotter sistemi ile donatılmıştır. Bu sistem, suyu otomatik olarak köpek balıklarına karşı tarar ve güvenli olmayan bir şey gördüğünde operatörü uyarır. (6) Sudaki insanları, yunusları, tekneleri, sörf tahtalarını ve nesneleri köpek balıklarından ayırt etmek için tanımlayabilir. Yaklaşık on altı farklı türü yüksek doğrulukla tespit edip tanımlayabiliyor.

6. SharkSpotter sisteminde tanınan köpekbalıkları

Bu gelişmiş makine öğrenimi teknikleri, havadan keşif doğruluğunu %90'dan fazla artırır. Karşılaştırma yapmak gerekirse, benzer durumdaki bir insan operatör, hava fotoğraflarındaki nesnelerin %20-30'unu doğru bir şekilde tanır. Ek olarak, alarm verilmeden önce kimlik tespiti hâlâ bir insan tarafından doğrulanıyor.

Savaş alanında ekranda görüntüyü gören operatör, yerdeki kişilerin ellerinde AK-47'ler olan savaşçılar mı, yoksa örneğin mızraklı çiftçiler mi olduğunu belirlemekte zorluk yaşayabilir. Arkın, insanların özellikle stresli durumlarda "görmek istediklerini görme" eğiliminde olduklarını belirtiyor. Bu etki, 1987'de USS Vincennes tarafından bir İran uçağının kazara düşürülmesine katkıda bulunmuştur. Elbette ona göre yapay zeka kontrollü silahlar, pek akıllı olmayan mevcut "akıllı bombalardan" daha iyi olurdu. Geçtiğimiz ağustos ayında, Suudilerin lazer güdümlü füzesi Yemen'de okul çocukları ile dolu bir otobüsü vurarak kırk çocuğun ölümüne yol açmıştı.

Arkin, Popular Mechanics'te şöyle belirtiyor: "Bir okul otobüsü uygun şekilde işaretlenmişse, onu otonom bir sistemde tanımlamak nispeten kolay olabilir."

Ancak bu argümanlar kampanyacıları otomatik katillere karşı ikna etmiş gibi görünmüyor. Öldürücü robot tehdidinin yanı sıra dikkate alınması gereken başka bir önemli faktör daha var. “İyi” ve “düşünceli” bir sistem bile çok kötü insanlar tarafından hacklenebilir ve ele geçirilebilir. O zaman askeri teçhizatın savunulmasına ilişkin tüm argümanlar gücünü kaybeder.

Yorum ekle