Trump’tan devlete: “Ideolojik” Aİ yasaklandı

trumptan devlete ideolojik ai yasaklandi

Trump’un “Uyanık Yapay Zekâ” Kararnamesi: Federal Kurumlara Gelen Yeni AI Önlemleri

Trump yönetimi, 25 Temmuz 2025’te woke yapay zekâ kararnamesi başlıklı yürütme emrini imzaladı. Belge, federal fonların “ideolojik önyargılı” yapay zekâ çözümlerine aktarılmasını engelliyor ve tüm devlet dairelerinden kullandıkları makine öğrenimi araçlarının “Amerikan değerleriyle uyumlu” olduğunu belgelemesini talep ediyor.

Kararnamenin Kapsamı ve Dayanak Maddeleri

Yazılım mühendisliği, veri bilimi ve etik uzmanlarından oluşan bir çalışma grubu artık her bir algoritmanın çıktı kalitesini ve içerik yanlılığını izleyecek. Kararname, üç temel paragrafta özetlenen kriter oluşturuyor:

  1. Sözlü, görsel veya metin tabanlı çıktılar, kullanıcının ideolojik tercihlerine göre denge dışı sonuç sunmamalı.
  2. Üretken yapay zekâ (generative AI) sistemleri, ırk, cinsiyet, din ya da siyasi eğilim temelli etiketlemeyi özendiren kaynak veri kümesi barındıramaz.
  3. Kamuya açık çağrı merkezleri, çevrim içi başvuru formları ve chatbot hizmetleri dâhil tüm dijital hizmet altyapıları, 90 gün içinde yerli alternatifini belgelemeli veya 90 + 60 günlük denetim ek süresine başvurmalı.

Araştırmacılar, düzenlemenin sadece kamu kesimini değil, aynı zamanda yüklenici konumdaki özel şirketleri de kapsadığına dikkat çekiyor. Örneğin, bir veri madenciliği sözleşmesine sahip lisansör artık model ağırlıklarını ve eğitim veri kaynaklarını kamu hâkimlerine sunmakla yükümlü.

Federal Ajanslara 90 Günlük Geçiş Takvimi

Kararnamenin yürürlük maddesi, çerçeve zaman çizelgesini dört aşamaya ayırıyor:

Gün 0–30: Mevcut Envanter Tespiti

Her daire, envanterdeki yapay zekâ araçları için kısa teknik özeti ve kullanım senaryosunu paylaşacak. Bu rapor, OMB (Office of Management and Budget) uygulama sitesine yüklenecek.

Gün 31–60: Tarafsızlık Metrik Raporu

Bağımsız etik inceleme şirketleri tarafından denetlenen ölçek testleri uygulanacak. Metric: Prompt bazlı polarizasyon skoru 0,20’nin altına indirilmeli.

Gün 61–90: Süreç Dokümantasyonu ve Dış Denetim

NIST (National Institute of Standards and Technology) tarafından yayımlanan 2024 AI Risk Management Framework referans alınarak uyum dosyaları tamamlanacak.

Savunma ve istihbarat birimleri, 1958 Ulusal Güvenlik Yasası’nın 10 USC § 4022 paragrafı uyarınca istisna kapsamında bulunuyor. Bu istisna, terörle mücadele ve askeri simülasyon projelerinde değişiklik yaratmıyor.

Şirketlerin İlk Tepkileri ve Uyum Planları

Microsoft Azure AI birimi, 26 Temmuz’da blog yazısı yayımlayarak Azure OpenAI Service’daki politika güncellemesini duyurdu:

  • “Content-filter stack” modülünde hipotez testi artırıldı.
  • Kurum içi Federated Learning test sürümü federatif öğrenme ile kamu bulutu verisini işleme prensibini Nisan 2026’da genel kullanıma sunulacak.

Google Cloud, güncellenen Vertex AI Politikası kapsamında “text-moderation” API’sine ideolojik önyargı tarama seviyesi ekledi. Şirket, ä Federal CIO ve Federal CISO’ya spor hazırlık dosyalarını ağustos ayı ortasında ileteceğini taahhüt etti.

OpenAI ChatGPT Enterprise müşterileri 1 Ağustos’tan itibaren hesabındaki “policy-audit” dosyasını indirerek sistem parametrelerini oluşturabilecek. Şirket, kamu sektörü projelerinde özel fine-tune dosyalarının açıklanabilirliği ilkesine ek raporlama katmanı kuruyor.

Analistlere göre, yeni yükümlülükler her üç büyük oyuncunun da bulut kârlılık tablosunu yaklaşık %3–5 oranında aşağı çekecek. Rıza maliyetinin satış fiyatına yansıtılıp yansıtılmayacağı ise toplu satın alma sözleşmelerindeki revizyonlara bağlı.

Uyum Maliyetleri ve Teknik Yaklaşım

Kaynak Gereksinimleri

  • İnsan gücü: Her 10 milyon dolarlık sözleşme için ek 2-3 veri etiketi ve 1 bağımsız denetçi.
  • Bilgi işlem: Model tekrar eğitim saklama maliyeti, 7-15 milyar parametreli dil modelleri için %7-12 CPU ek yükü.
  • Belgeler: APA, NIST, ISO/IEC 23053 standartlarına uygunluk dosyaları ortalama 600 sayfa teknik döküman.

Çok paydaşlı kamu-özel ortaklıklarında ortalama proje süresi 45–60 gün uzayacak. Bu süre zarfında kurumun “gölge uyum” süreci, bir etik kurul raporu ve sıfır güven mimarisi ile tamamlanıyor.

Otomatik Test Kütüphaneleri

Denetim ajansları, “FairCheck 3.0” ve “PolarityDetect” gibi açık kaynak Python kütüphanelerini kullanıyor. Kütüphaneler, 100 dilde “fairness score” ve “bias delta” metriklerini SQLite veritabanına aktarıyor.

Sektör ve Akademide Ortaya Çıkan Tartışmalar

Bazı araştırmacılar, woke yapay zekâ kararnamesi nedeniyle kaynakların yeni baştan dağıtılmasının bilimsel makale üretimini olumsuz etkileyebileceğini öne sürüyor. 2023 akademik yılında NSF desteğiyle yayımlanan 142 adet bilgisayar bilimi bildirisinin %38’inin ChatGPT API’ını sunum parçası olarak kullandığı tespit edildi.

Eleştirmenler, kısıtlamaların veri bilimi topluluğundaki “açık bilim” akımına darbe vuracağını savunuyor. Karşıt görüşte olan uzmanlar ise kamu kaynaklarının ideolojik hedef gözetmeden kullanılmasının transparanlık standartlarını güçlendireceğini ifade ediyor.

Google DeepMind, yakında çıkacak “EthicAudit” preprint çalışmasında, 2023–2025 yılları arasında kamu fonlu toplam 713 yapay zekâ projesini siyasi polarizasyon açısından analiz etti. Sonuç, proje çıktılarının %6,7’sinde ciddi ideolojik sapma tespit edildi.

Küresel Benzer Uygulamalar ve Emsaller

Avrupa Birliği, 2022 yılında yürürlüğe giren AI Act taslak metninde “high-risk” sistemler için etik etiketi getirdi. Fakat Avrupa prensibi, ürün güvenliğine odaklanıyor; Trump metni ise siyasi tarafsızlığı önceliklendiriyor.

Singapur, DAIS (Deploy AI Safely) sertifikasyon programını 2023’te faaliyete geçirdi. Program, model risk değerlendirmesini Tür 1 ve Tür 2 olarak nitelendiriyor. Kamu kurumları yalnızca Tür 2 sertifikası alan ürünleri tercih ediyor.

Avustralya merkezli model “FairGov AI”, hükümet alımlarında “explainability index” üzerinden puanlandırıyor. Melbourne Üniversitesi’nin 2024 raporuna göre ABD benzeri ideolojik filtre uygulanmıyor, fakat çıktılar kamuya açık API üzerinden değerlendiriliyor.

Karşılaştırmalı analiz tablosu:

| Bölge | İdeolojik Sapma Testi | Kamuya Satış Yükümlülüğü | Maliyet Artışı |
|————–|———————–|—————————|—————-|
| ABD | Mevcut | Evet | 90 gün |
| AB | Yok | Sınırlı | 120 gün |
| Birleşik Krallık| Yok | Kismen | 60 gün |
| Singapur | Yok | Evet | 35 gün |
| Avustralya | Yok | Evet | 45 gün |

Kağıt Üzerinde Kalması Muhtemel Riskler

Analistler, ideolojik önyargının “chemotherapy AI” veya “çiftçi destek optimizasyonu” gibi teknik alanlara etkisinin dozaj olarak düşük olabileceğini savunuyor. Ancak ABD Adalet Bakanlığı’nın 2021 raporu, algoritma kararlarının %11’inin ırk temelli veri kümesi nedeniyle eşitsiz sonuç doğurduğuna işaret etti.

Elektronik Gizlilik Bilgi Merkezi (EPIC), açık kaynak modellerin filtrelenmesi sırasında “creativity shut-off riski” oluşabileceğini belirtiyor. Örnek senaryo: Eğitim setinde az temsil edilen lehçe gruplarının dil modellerinde daha az görünmesi.

Güvenlik endüstrisi kaynakları, istihbarat özelindeki istisnanın suiistimal edilmesine karşı ileride ek yasa değişikliği gerekebileceğini öngörüyor. Savunma sanayi tedarikçileri, yapay zekâ ekosistemindeki TTP (tactics, techniques and procedures) verilerinin görünürlüğünü sınırlamak yönünde kamuoyu baskısı altında.

Sektördeki bazı teknik incelemeler, veri tabanının yeniden dengelenmesiyle makul politika telafisi sağlanabileceğine, yani “0 çıktı riski” yerine “düşük başarım riski” ile yetinilebileceğine dikkat çekiyor.

Güncel durumda, 25 Temmuz 2025 itibarıyla uygulamanın ilk 30 günlük raporu Ekim kadarıyla yayınlanacak. Federal kurumların uyum maliyetlerini içeren tablolar ve kamuya açık yorum formları OMB veri portalında güncelleniyor. woke yapay zekâ kararnamesi ekseninde Şubat 2026’da yapılacak NIST teknik testi, düzenlemenin kalıcılığı konusunda kilit gösterge olacak.

Sıkça Sorulan Sorular (SSS)

1- Kararname yalnızca metin tabanlı botları mı içeriyor?
Hayır, görsel, video ve karma