Pentagon’un Yapay Zeka Korkusu: Savaş Alanında Etik Sorunlar Gündemde

Pentagon’un Yapay Zeka Korkusu: Savaş Alanında Etik Sorunlar Gündemde

Pentagon’daki yapay zeka skandalı, Amerikan ordusunun operasyonel yeteneklerini sorgulatacak boyutlara ulaştı. Son günlerde, “etik filtrelerin”, savaş anında yapay zekanın devre dışı kalma riski nedeniyle, ordunun karar verme sürecini nasıl etkilediği tartışılıyor. Bu durum, Silikon Vadisi’nin ordunun ikmal sistemlerine koyduğu teknolojik sınırlamaların, askerlerin etkinliğini nasıl kısıtladığını ortaya koyuyor.

“ALGORİTMA VETO EDERSE ATEŞ EDEMEYİZ!”

The Free Press’e göre, Anthropic gibi teknoloji devlerinin geliştirdiği yapay zeka modelleri (LLM), ordunun hedef belirleme sistemlerine entegre edildi. Bu sistemler, “öldürücü güç kullanımını engelleyici” kodlarla donatıldığı için, yapay zeka bir hedefin vurulmasını “etik dışı” bulduğunda askerin önündeki ekranı kilitleme veya veri akışını kesme yeteneğine sahip.

“SAVAŞI ŞİRKET YÖNETİM KURULLARI MI YÖNETECEK?”

Pentagon içindeki şahin kanat, bu durumun bir milli güvenlik felaketi oluşturduğunu savunuyor. Amerikalı generaller ise savaş kurallarının yasalar ve anayasa tarafından belirleneceğini vurgulayarak bir teknoloji şirketinin yönetim kurulunun değil, ordunun askerlerinin sağduyusunun devrede olması gerektiğini belirtiyor.

Teknoloji devleri ise, “Biz sadece ticari ürün satıyoruz, etik sorumluluğumuz var” ifadeleriyle savaşa dahil olmak istemediklerini açığa vurdular.

İRAN OPERASYONUNDA SİSTEMLER YAVAŞLADI MI?

İddialara göre, İran operasyonu sırasında kullanılan bazı sistemler, sivil kayıp riskinin algılanması durumunda “hata raporu” vererek kasıtlı olarak yavaşladı. Bu durum, operasyonun hızını düşürdü ve Amerikan askerlerinin güvenliğini tehlikeye attı.

PENTAGON’UN B PLANI: “ASKERİ ZEKA” (MIL-AI)

Teknoloji devlerinin bu sınırlayıcı tutumuna karşılık olarak, Washington askeri amaçlı tamamen bağımsız bir yapay zeka modeli geliştirmek amacıyla milyarlarca dolarlık bütçe ayırdı. Ancak bu sistemin inşası yıllar alabilir, dolayısıyla ABD ordusu mevcut durumda teknoloji devlerine bağımlı kalmaya devam edecek.

KATİL Mİ OLSUN, VİCDANLI MI?

Şimdi konuşulması gereken kritik bir soru var: Yapay zeka, acımasız bir katil mi olmalı yoksa etik kuralları gözeten bir vicdan mı taşımalı? Silikon Vadisi, değer yargılarını ve ticari kaygılarını gözeterek kilitler koyduysa, bu durum İranlı siviller için olumlu bir gelişme olabilir. Ancak bu etik kısıtlamalar nedeniyle sahada hedef haline gelen ve operasyon kabiliyeti kısıtlanan Amerikan askerleri açısından tehlike doğuruyor.

Düğmeye kim basacak?

En korkutucu senaryo ise, etik kurallara tabi olmayan ve önüne gelen her şeyi yok etmeye programlı bir yapay zekanın savaş alanlarına inmesidir. Tüm bu gelişmeler, insan ve makine arasındaki “son kararı kimin vereceği” tartışmasının, önümüzdeki yıllarda en büyük küresel tartışmalardan biri olacağını gösteriyor.

Bu haber, The Free Press (TFP) tarafından yayımlanan “Anthropic Doesn’t Decide Our Military’s Rules of Engagement” başlıklı analiz, CBS News raporları ve Pentagon bütçesi üzerine sızan verilerden derlenmiştir.

Yorum ekle

Your email address will not be published.

Kaçırmayın

İnsanlık, Doğa Değişimleriyle Yüz Yüze: Aşırı Sıcaklıklar Hayatı Tehdit Ediyor

İnsanlık, Doğa Değişimleriyle Yüz Yüze: Aşırı Sıcaklıklar Hayatı Tehdit Ediyor

Çalışma: Pangaea Ultima’nın Oluşumu Kitlesel Yok Oluşa Neden Olabilir Bristol Üniversitesi araştırmacıları,…