ABD Başkanı Donald Trump, dün (27 Şubat) tüm federal kurumlara yapay zekâ şirketi Anthropic tarafından geliştirilen teknolojilerin kullanımını durdurma talimatı verdi.
Karar, hükümetin istihbarat analizleri ve savunma çalışmaları açısından ciddi sonuçlar doğurabilecek bir adım olarak değerlendiriliyor.
Trump, Truth Social’daki açıklamasında Anthropic’i “gerçek dünyadan haberi olmayan kişiler tarafından yönetilen radikal solcu bir yapay zekâ şirketi” olarak niteledi. Açıklamadan yalnızca 13 dakika sonra ve Pentagon’un son tarihinin hemen ardından, Savunma Bakanı Pete Hegseth şirketi “ulusal güvenlik açısından tedarik zinciri riski” ilan etti.
Bu etiket, normalde ABD’nin güvenlik tehdidi olarak gördüğü yabancı şirketler için kullanılan bir mekanizma. Kararla birlikte, orduyla çalışan hiçbir yüklenici ya da tedarikçi Anthropic’le iş yapamayacak.
“Altı Aylık Aşamalı Çıkış”
Trump, Pentagon ve bazı kurumlar için “altı aylık bir aşamalı çıkış süreci” duyurdu. Ancak Hegseth, kararının nihai olduğunu belirtti.
Hukuk uzmanları, Amerikan bir şirketin bu yöntemle federal işlerinden dışlanmasının “neredeyse eşi görülmemiş” olduğunu vurguluyor. Daha önce bu süreç yalnızca ABD’nin ulusal güvenlik tehdidi olarak gördüğü yabancı firmalara uygulanmıştı.
Anthropic Cuma gecesi yaptığı açıklamada kararı mahkemeye taşıyacağını duyurdu:
“Anthropic’in tedarik zinciri riski olarak tanımlanması, tarihsel olarak yalnızca ABD hasımlarına uygulanan ve hiçbir Amerikan şirketine açık biçimde uygulanmamış emsalsiz bir adımdır. Bu kararın hukuken dayanaksız olduğunu ve hükümetle müzakere eden her Amerikan şirketi için tehlikeli bir emsal oluşturacağını düşünüyoruz.”
Krizin Arka Planı: “Sınırsız Erişim” Talebi
Pentagon ile Anthropic günlerdir, şirketin Claude adlı yapay zekâ modelinin askerî ve istihbarî sistemlerde nasıl kullanılacağı konusunda sert bir müzakere yürütüyordu.
Pentagon, satın aldığı sistemlere “hukuka uygun olduğu sürece dilediği gibi” erişim talep ederken; Anthropic güvenlik bariyerlerinin korunmasında ısrar etti.
Şirketin CEO’su Dario Amodei, bazı yapay zekâ kullanım alanlarının demokratik değerleri zayıflatabileceğini belirterek, “Bazı kullanımlar güvenlik, etik ve güvenilirlik açısından kırmızı çizgileri aşar. Vicdanen kabul edemeyiz” dedi.
Kaynaklara göre Pentagon’un gündemindeki 200 milyon dolarlık anlaşma, Claude’un ABD vatandaşlarının kitlesel gözetimi ve tam otonom silah sistemlerinde kısıtlama olmaksızın kullanılmasını da kapsıyordu. Anthropic bu şartlara “hayır” dedi.
Pentagon başlangıçta Savunma Üretim Yasası’nı devreye sokarak şirketi zorlamayı değerlendirdi. Ancak Trump’ın sosyal medya paylaşımı sonrası bu yoldan vazgeçildi ve doğrudan “tedarik zinciri riski” etiketi tercih edildi.
OpenAI ile Anlaşma Kapıda
Krizin yaşandığı saatlerde, Sam Altman, Cuma öğleden sonra şirket içi toplantıda çalışanlara, Savunma Bakanlığı (metinde “Department of War”) ile olası bir anlaşmanın şekillenmekte olduğunu söyledi. Fortune’un gördüğü toplantı özetine göre sözleşme henüz imzalanmadı.
Altman, hükümetin OpenAI’ın kendi “güvenlik katmanını” (safety stack) inşa etmesine izin vermeye hazır olduğunu aktardı. Bu sistem; güçlü bir yapay zekâ modelinin gerçek dünyada kullanımından önce devreye giren teknik, politik ve insan denetimli kontrol katmanlarını içeriyor.
Altman’a göre, model bir görevi reddederse hükümet şirketi o görevi yaptırmaya zorlamayacak.
Bu gelişme, Pentagon ile Anthropic arasında patlak veren kamuya açık sert tartışmanın hemen ardından geldi.
Silikon Vadisi’nden Dayanışma
Anthropic’e destek veren mektuba Google ve OpenAI’dan yüzlerce çalışan imza attı. 430’dan fazla çalışanın imzaladığı mektupta şu ifadeler yer aldı:
“Liderlerimizin farklılıklarını bir kenara bırakarak, modellerimizin yurt içinde kitlesel gözetim ve insan denetimi olmaksızın otonom öldürme amacıyla kullanılmasına izin verilmesi yönündeki mevcut talepleri reddetmeye devam etmelerini umuyoruz.”
Mektubu imzalayan çalışanlar, Pentagon’un diğer yapay zekâ şirketlerine de benzer erişim talepleriyle gitmiş olabileceğini öne sürdü.
İstihbarat Boyutu
Claude hâlihazırda NSA ve CIA analistleri tarafından büyük veri setlerinde örüntü analizi için kullanılıyordu. Eski yetkililere göre model, analiz süreçlerini hızlandırmış ve derinleştirmişti.
Pentagon’un, xAI tarafından geliştirilen Grok modeline yönelmeye hazırlandığı belirtiliyor. Ancak mevcut ve eski bazı yetkililer Grok’un Claude’a kıyasla daha zayıf olduğunu ifade ediyor.
“Oppenheimer – Truman” Benzetmesi
Bazı yorumcular, yaşanan kopuşu 1945’te J. Robert Oppenheimer ile Harry S. Truman arasındaki gerilime benzetiyor.
Nagasaki ve Hiroşima sonrası Truman’la görüşen Oppenheimer’ın “Ellerimde kan var” dediği, Truman’ın ise “O halde silin” diyerek tepki gösterdiği anlatılır. Ardından Truman’ın nükleer araştırmalarda Ernest Lawrence ve Edward Teller gibi daha agresif isimlerle çalışmaya yöneldiği bilinir.
Bugün yaşananlar, bazı çevrelere göre “etik kaygılar ile ulusal güvenlik öncelikleri” arasındaki tarihsel gerilimin yapay zekâ çağındaki versiyonu.
Tarihî Bir Kırılma
Anthropic’in federal düzeyde fiilen yasaklanması ve “tedarik zinciri riski” etiketiyle damgalanması, ABD’de yapay zekâ düzenlemeleri açısından şimdiye kadarki en sert adım olarak değerlendiriliyor.
Uzmanlara göre mesele artık yalnızca bir sözleşme anlaşmazlığı değil:
Bu, yapay zekâ etiği ile ulusal güvenlik önceliklerinin doğrudan çatışması.
Yazıyı beğendiysen, patronumuz olur musun?
Evet, çok ciddi bir teklif bu. Patronumuz yok. Sahibimiz kar amacı gütmeyen bir dernek. Bizi okuyorsan, memnunsan ve devam etmesini istiyorsan, artık boş olan patron koltuğuna geçmen lazım.
Serbestiyet; Türkiye'nin gri alanı. Siyah ve beyazlar içinde bu gri alanı korumalıyız. Herkese bir gün gri alanlar lazım olur.