$title =

GitHub Copilot Fiyat Krizi: Kurumsal AI Risk Analizi

;

$içerik = [

GitHub Copilot’un bireysel planlarına yeni kayıt almayı durdurması ve token limitlerini köklü biçimde sıkılaştırması, yüzeysel bakışta bir “fiyatlandırma güncellemesi” gibi görünüyor. Oysa güvenlik tarafından baktığınızda tablo çok farklı: ajansal (agentic) AI iş akışlarının kurumsal ortamlarda ne kadar hızlı ve ne kadar görünmez biçimde yayıldığını gösteren bir erken uyarı sinyali bu. Eğer kuruluşunuzda geliştiriciler Copilot kullanıyorsa — ya da kullandığını zannetmiyorsanız — bu değişiklikler sizi doğrudan ilgilendiriyor.


🔍 Ne Değişti, Gerçekte Ne Anlama Geliyor?

22 Nisan 2026’da GitHub, Copilot bireysel planlarında bir dizi kritik değişiklik duyurdu. Bunları maddeler halinde sıralayalım, ama hemen ardından güvenlik gözüyle yorumlayalım:

  • Bireysel plan kayıtları durduruldu. Yeni kullanıcılar artık $10/ay’lık bireysel plana kaydolamıyor.
  • Token tabanlı kullanım limitleri getirildi. Önceki istek-başına (per-request) modelden oturum-başına ve haftalık token limitine geçildi.
  • Claude Opus 4.7 sadece $39/ay Pro+ plana taşındı. Daha güçlü modele erişim daha pahalı katmana kilitlendi.
  • Önceki Opus modelleri tamamen kaldırıldı. Geriye dönük uyumluluk penceresi yok.

GitHub’ın resmi açıklamasında kritik bir itiraf var: “Ajansal iş akışları Copilot’un hesaplama taleplerini temelden değiştirdi.” Yani altı ay önce “ağır kullanıcı” sayılan birisinin yaktığı token miktarı, bugünkü ajansal bir oturumun yanında devede kulak kalıyor. Bu, AI araçlarının kurumsal ortamlarda ne kadar hızlı “derinleştiğinin” somut kanıtı.


⚠️ Güvenlik Perspektifinden Asıl Tehlike: Shadow AI ve Ajansal Sürünme

Bu değişikliğin güvenlik ekipleri için asıl önem taşıyan boyutu fiyat değil, ajansal AI kullanımının görünürlüğü meselesi. Biz kurumsal ortamlarda Wazuh ile log analizi yaparken fark ettiğimiz bir desen var: geliştiriciler IDE içindeki AI araçlarını “sadece bir otomatik tamamlama” olarak görüyor. Oysa Copilot’un ajansal modunda olan şey çok daha karmaşık:

  • Ajan, repository içeriğini bağlam olarak modele toplu biçimde gönderiyor. Bu, kaynak kodu sızıntısı için potansiyel bir vektör.
  • Uzun süreli, paralel ajansal oturumlar arka planda çalışıyor — geliştirici ekranından ayrıldığında bile.
  • Plan değişiklikleri nedeniyle bireysel plan kullanamayan geliştiriciler, onaysız alternatif araçlara (Cursor, Windsurf, lokal modeller vb.) yönelebilir. Bu klasik bir Shadow AI senaryosu.
  • GitHub Copilot markası altında 15 farklı ürün var. Hangi aracın hangi veriye eriştiğini kimse tam olarak takip etmiyor.

MITRE ATT&CK çerçevesinden baktığımızda bu senaryo birden fazla teknikle örtüşüyor: T1213 (Data from Information Repositories) — kaynak kodu ve iç dokümantasyonun AI modeline aktarılması; T1567 (Exfiltration Over Web Service) — verilerin meşru bir bulut servisi üzerinden dışarı çıkması; T1078 (Valid Accounts) — onaylanmamış ama geçerli kimlik bilgileriyle shadow araçlara erişim.


🔧 Teknik Kontrol: Copilot ve LLM API Aktivitesini Wazuh ile İzleme

Kurumsal ortamlarda Copilot kullanımını loglamak için en pratik başlangıç noktası, endpoint’lerdeki ağ trafiğini ve IDE eklenti aktivitesini izlemektir. Aşağıda Wazuh için bir custom rule örneği ve bunu destekleyen bir Sysmon/Auditd korelasyonu var. Amaç: geliştiricinin makinesinden *.copilot.github.com veya alternatif LLM API endpoint’lerine yapılan büyük hacimli POST isteklerini tespit etmek.

# /var/ossec/etc/rules/local_rules.xml içine ekleyin




  
  
    syscheck
    .copilot|copilot-token|.cursor|windsurf
    AI geliştirici aracı token/config dosyası değişikliği tespit edildi: $(file)
    
      T1078
    
    ai_tool,credential_change
  

  
  
    web_log
    api.githubcopilot.com|copilot-proxy.githubusercontent.com|api.anthropic.com|api.openai.com|aistudio.google.com
    POST
    Onaylı LLM API endpoint'ine büyük POST isteği: $(url) - Shadow AI riski değerlendirin
    
      T1567
      T1213
    
    ai_egress,data_exfil_risk
  

  
  
    100501
    
    Ajansal AI oturumu tespit edildi: 60 saniyede 20+ LLM API isteği. Kaynak: $(srcip)
    
      T1213
    
    ai_agent_session,high_volume
  

Bu kuralların çalışması için endpoint’lerde Zeek veya Suricata’nın web loglarını Wazuh’a iletmesi gerekiyor. Alternatif olarak Windows ortamlarında Sysmon EventID 3 (Network Connection) loglarını kullanabilirsiniz. Aşağıda hızlı bir Sysmon filtresi:

# Sysmon config - NetworkConnect filtresi (sysmonconfig.xml)

  
    copilot.github.com
    api.anthropic.com
    api.openai.com
    cursor.sh
    windsurf.ai
  


# Bu logları ossec.conf'ta windows event channel olarak çekin:
# 
#   Microsoft-Windows-Sysmon/Operational
#   eventchannel
# 

📊 Bu kuralları devreye aldıktan sonra muhtemelen şaşıracaksınız — hangi makinelerden ne kadar LLM trafiği gittiğini ilk kez görmüş olacaksınız. Deneyimlerimizden biliyorum: çoğu kurumda bu trafik tamamen “görünmez” durumda.


🛡️ Bu Değişiklik Kimin İçin Ne Anlama Geliyor?

Her kurum için etki farklı. Kendi ortamınıza göre değerlendirin:

  • Büyük kurumlar (Enterprise planı kullananlar): Doğrudan etkilenmiyorsunuz ancak Pro+ planına geçiş baskısı zamanla kurumsal planlara da yansıyabilir. Asıl riskiniz: kurumsal lisansı olmayan geliştiricilerin kişisel planlarla çalışıyor olması.
  • KOBİ’ler ve startup’lar: Bireysel plan dondurması sizi doğrudan vuruyor. Yeni işe aldığınız geliştiriciye Copilot lisansı veremezseniz ne yapacak? Cevaplanmamışsa bu soruyu sormaya başlayın.
  • Güvenlik ekipleri: Plan değişiklikleri nedeniyle yaşanacak “araç karmaşası” dönemi, shadow AI riskinin en yüksek olduğu dönemdir. Şu an tam bir izleme fırsatı penceresi.
  • Uygulama güvenliği (AppSec) ekipleri: Ajansal Copilot artık kod yazıyor, PR açıyor, testleri çalıştırıyor. Bu süreçlerin güvenlik gözden geçirme döngüsüne dahil edilmesi artık ertelenebilir değil.

✅ Ne Yapmalı: 5 Somut Aksiyon

  • 1. AI araç envanteri çıkarın. Kurumunuzda hangi geliştiricilerin hangi AI kodlama araçlarını kullandığını bugün bilmiyor olabilirsiniz. Wazuh FIM ve ağ logu korelasyonu ile bu görünürlüğü bir hafta içinde kazanabilirsiniz. Yukarıdaki kurallar başlangıç noktası.
  • 2. Onaylı araç politikası yayınlayın (veya güncelleyin). “AI araç kullanımı yasak” politikaları çalışmıyor — geliştiriciler kullanmaya devam ediyor, sadece gizliyor. Bunun yerine onaylı araç listesi + veri sınıflandırma kuralı kombinasyonu çok daha etkili.
  • 3. Ajansal iş akışlarını SDLC’ye dahil edin. Copilot’un agent modu artık PR açıyor, kod commit’liyor. Bu eylemlerin kimin kimlik bilgileriyle ve hangi yetkilerle gerçekleştiğini denetleyin. GitHub Action loglarını SIEM’e alın.
  • 4. Kaynak kodu segmentasyonu yapın. Her geliştirici her repoya erişmemeli — bu zaten en iyi pratik. Ama AI araçları bu kuralı daha kritik hale getiriyor: bir ajan, bağlama aldığı her dosyayı modele gönderiyor.
  • 5. Plan değişikliği dönemini shadow AI tespiti için kullanın. Değişikliğin hemen ardından geliştiriciler alternatif araçlara yöneliyor. Bu geçiş döneminde ağ trafik anomalilerini izlemek, normalde yakalanması zor shadow AI kullanımını görünür kılar.

Son bir not: GitHub’ın bu değişikliği yaparken “GitHub Copilot” adını taşıyan 15 farklı ürünün hangisinin etkilendiğini net olarak açıklamaması başlı başına bir yönetişim sorununa işaret ediyor. Eğer ürünü satan şirket hangi ürünün etkilendiğini açıkça söyleyemiyorsa, bu teknolojiyi satın alan kurumların bunu nasıl yönetmesi gerektiğini düşünün. AI araçlarında tedarikçi şeffaflığını bir seçim kriteri olarak kullanmak artık lüks değil, zorunluluk.


Orijinal kaynak: https://simonwillison.net/2026/Apr/22/changes-to-github-copilot/


📚 Ilgili Yazilar

];

$tarih =

;

$category =

,

;

Bir Cevap Yazın

Securtr sitesinden daha fazla şey keşfedin

Okumaya devam etmek ve tüm arşive erişim kazanmak için hemen abone olun.

Okumaya Devam Edin