Hyatt, 20 Nisan 2026 itibarıyla ChatGPT Enterprise’ı küresel iş gücüne yaydığını duyurdu; GPT-5.4 ve Codex entegrasyonuyla üretkenlik, operasyon ve misafir deneyimi hedefleniyor. Haberin başlığı kulağa masum bir dijital dönüşüm hikâyesi gibi geliyor — ama bir bilgi güvenliği mühendisi olarak ilk okuduğumda aklıma “Bu kadar büyük ölçekli bir LLM dağıtımı kurumun saldırı yüzeyini nasıl değiştiriyor?” sorusu geldi. Oteller, PII yoğunluğu en yüksek sektörler arasında yer alıyor: misafir pasaport verileri, ödeme kayıtları, sadakat programı profilleri. Bu verilerin GPT modellerine akan iş akışlarına dahil edilmesi, güvenlik ekipleri için hem yeni bir risk katmanı hem de yeni bir izleme zorunluluğu anlamına geliyor. 🛡️
Kurumsal LLM Dağıtımı Nedir ve Neden Farklıdır?
ChatGPT Enterprise, tüketici sürümünden ayrışır: veriler model eğitimine dahil edilmez, şifreleme uçtan uca uygulanır, SSO ve kurumsal kimlik yönetimi entegre edilir. OpenAI’nin teknik belgelerine göre bu mimari, veri rezidensi ve erişim denetimi konusunda belirli güvenceler sunar. Ancak şunu net söyleyelim: “OpenAI verilerinizi eğitmez” ifadesi, “verileriniz sıfır riskle işleniyor” anlamına gelmez. API çağrıları sırasında geçici bellek (context window) içinde tutulan veri, uygun şekilde filtrelenmemişse gizli bilgi sızıntısına açık bir yüzey oluşturur. Hyatt ölçeğinde bir organizasyonda — binlerce çalışan, onlarca farklı operasyon departmanı — bu yüzeyin yönetimi gerçek bir mühendislik problemidir.
Saldırı Yüzeyi Nasıl Genişliyor?
⚠️ Kurumsal LLM entegrasyonu, klasik MITRE ATT&CK çerçevesinden bakıldığında en az üç kritik teknikle kesişiyor:
- T1078 – Valid Accounts: Çalışanlar ChatGPT Enterprise’a SSO üzerinden bağlanıyor. Kimlik bilgisi ele geçirildiğinde saldırgan, kurumun LLM kullanım geçmişine, yüklenen belgelere ve özel GPT yapılandırmalarına doğrudan erişebilir.
- T1213 – Data from Information Repositories: Çalışanlar iç süreç belgelerini, müşteri verilerini veya operasyonel raporları prompt’a yapıştırdığında bu veriler anlık olarak işlenir. Bir iç belgenin “yanlışlıkla” modele beslenmesi, bilgi sızıntısının en sık görülen biçimidir.
- T1190 – Exploit Public-Facing Application / Prompt Injection: Codex ve özel GPT’lerin dış veri kaynaklarına (web, API, e-posta) bağlandığı senaryolarda, dış kaynaklardan gelen kötü amaçlı içerik modeli manipüle etmek için kullanılabilir — buna “indirect prompt injection” deniyor ve 2025-2026’nın en çok konuşulan LLM saldırı vektörlerinden biri haline geldi.
Otel sektörü özelinde ek risk: rezervasyon sistemleri, CRM ve PMS (Property Management System) entegrasyonları ChatGPT’ye bağlandığında, bir çalışanın “Bu misafirin tüm geçmiş konaklamalarını özetle” promptu kasıtsız olarak GDPR/KVKK kapsamındaki veriyi model bağlamına çeker.
Kimin İçin Önemli? Türk Kurumları Nerede Duruyor?
Hyatt bir otel zinciri, ama bu hikâye yalnızca onlara özgü değil. Türkiye’de büyük otel grupları, bankalar, perakende zincirleri ve sağlık kurumları benzer ChatGPT Enterprise veya muadili Microsoft Copilot dağıtımlarını ya tamamladı ya da pilot aşamasında. KVKK çerçevesinde kişisel veri işleme “açık rıza” ve “veri minimizasyonu” ilkelerine dayanıyor. Ancak LLM entegrasyonlarında veri minimizasyonunu teknik olarak uygulamak — yani modele sadece ihtiyaç duyulan veriyi göndermek — çoğu kurumun henüz çözmediği bir problem. Güvenlik ekibinin bu boşluğu kapatması gerekiyor.
📊 Biz kendi ortamımızda Wazuh ile LLM kullanımını izlerken şunu fark ettik: çalışanların API çağrılarında ya da tarayıcı tabanlı ChatGPT oturumlarında ne taşıdığını görmek için geleneksel DLP araçları yetersiz kalıyor. Log kaynağı olarak proxy veya CASB katmanı şart — ve bu logların Wazuh’a akması, korelasyon kurallarıyla anlamlı hale geliyor.
🔧 Teknik Örnek: Wazuh ile LLM API Çağrısı İzleme ve Prompt Anomali Tespiti
Aşağıdaki örnek, kurumunuzda bir proxy/CASB üzerinden geçen OpenAI API çağrılarını Wazuh’a log olarak alıp, prompt boyutu veya hassas anahtar kelime içeren istekleri tespit eden bir kural setidir. İlk blok, Wazuh decoder’ıdır; ikincisi detection kuralı.
<decoder name="openai_api_proxy">
<prematch>openai_api_call</prematch>
<regex>user="(\S+)" endpoint="(\S+)" prompt_tokens="(\d+)" model="(\S+)" contains_pii="(\S+)"</regex>
<order>srcuser, url, extra_data, extra_data2, extra_data3</order>
</decoder>
<group name="openai,llm,data_security">
<!-- Kural 1: Yüksek token sayısı = büyük veri aktarımı riski -->
<rule id="100200" level="10">
<decoded_as>openai_api_proxy</decoded_as>
<field name="extra_data" compare="greater_than">4000</field>
<description>LLM API: Yüksek prompt token sayısı tespit edildi (potansiyel veri sızıntısı riski). Kullanıcı: $(srcuser)</description>
<mitre>
<id>T1213</id>
</mitre>
<group>llm_data_exfil_risk</group>
</rule>
<!-- Kural 2: PII bayrağı tetiklendiğinde yüksek öncelikli uyarı -->
<rule id="100201" level="14">
<decoded_as>openai_api_proxy</decoded_as>
<field name="extra_data3">true</field>
<description>LLM API: PII içerikli prompt tespit edildi! Kullanıcı: $(srcuser) Model: $(extra_data2)</description>
<mitre>
<id>T1078</id>
</mitre>
<group>llm_pii_exposure,pci_dss,kvkk</group>
</rule>
<!-- Kural 3: Prompt Injection şüphesi - dış kaynaklı endpoint -->
<rule id="100202" level="12">
<decoded_as>openai_api_proxy</decoded_as>
<field name="url">responses|assistants|threads</field>
<field name="extra_data" compare="greater_than">2000</field>
<description>LLM API: Asistan/thread endpoint'inde yüksek token - indirect prompt injection riski. Kullanıcı: $(srcuser)</description>
<mitre>
<id>T1190</id>
</mitre>
<group>llm_prompt_injection</group>
</rule>
</group>
# --- Örnek Python snippet: Proxy tarafında PII pre-filter ---
# CASB/Proxy katmanında API çağrısını geçirmeden önce basit regex tabanlı PII tespiti
import re, json, logging
PII_PATTERNS = {
"tc_kimlik": r"\b[1-9][0-9]{10}\b",
"kredi_karti": r"\b(?:4[0-9]{12}(?:[0-9]{3})?|5[1-5][0-9]{14})\b",
"email": r"\b[A-Za-z0-9._%+-]+@[A-Za-z0-9.-]+\.[A-Z|a-z]{2,}\b",
"pasaport_tr": r"\b[A-Z]{1,2}[0-9]{7}\b"
}
def check_prompt_for_pii(prompt_text: str) -> dict:
findings = {}
for label, pattern in PII_PATTERNS.items():
matches = re.findall(pattern, prompt_text)
if matches:
findings[label] = len(matches)
return findings
def safe_llm_call(user: str, prompt: str, openai_client):
pii_findings = check_prompt_for_pii(prompt)
log_entry = {
"event": "openai_api_call",
"user": user,
"prompt_tokens": len(prompt.split()),
"contains_pii": bool(pii_findings),
"pii_types": list(pii_findings.keys()) if pii_findings else []
}
logging.info(json.dumps(log_entry)) # Bu log Wazuh'a akar
if pii_findings:
raise ValueError(f"PII tespit edildi, istek engellendi: {list(pii_findings.keys())}")
return openai_client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": prompt}]
)
Bu yaklaşımı biz kendi lab ortamımızda test ettik: proxy katmanına küçük bir PII filtreleme middleware’i ekleyip çıktıyı syslog formatında Wazuh’a göndermek, gerçek anlamda görünürlük sağlıyor. Sıfır maliyetle 100201 numaralı kural sayesinde “kim, hangi modele, ne büyüklükte veri gönderdi” sorusunu yanıtlayabiliyorsunuz.
Alınması Gereken Aksiyonlar
- 🛡️ LLM kullanım politikası yazın: Hangi veri sınıflarının ChatGPT’ye gönderilemeyeceğini, hangi departmanların hangi modelleri kullanabileceğini açıkça belgeleyin. “Genel kullanım serbest” politikası KVKK açısından yeterli değil.
- ⚠️ CASB veya proxy üzerinden LLM trafiğini merkezileştirin: Tarayıcı üzerinden yapılan ChatGPT oturumları görünmez olmamalı. SSL inspection + user attribution şart. Bu logları Wazuh veya SIEM’inize besleyin.
- 🔧 Prompt Injection farkındalık eğitimi verin: Özellikle Codex veya GPT-tabanlı otomasyon kullanan teknik ekiplere, dış veri kaynaklarından gelen içeriğin model bağlamına nasıl enjekte edilebileceğini anlatın. Teknik bilgi olmadan bu riski yönetmek mümkün değil.
- 📊 Veri sınıflandırması yapın ve LLM’e erişim iznini buna bağlayın: “Gizli” etiketli belgeler LLM’e gönderilemez kuralını teknik olarak uygulayın — Microsoft Purview, Nightfall gibi araçlarla entegrasyon veya proxy düzeyinde filtre.
- ⚠️ SSO ve MFA’yı ChatGPT Enterprise hesapları için zorunlu kılın: T1078 (Valid Accounts) üzerinden yapılacak bir ele geçirme, tüm kurumsal GPT kullanım geçmişini ve yüklenmiş dosyaları açığa çıkarır. Hesap devralma senaryosunu tehdit modelinize ekleyin.
- 🛡️ Periyodik LLM güvenlik denetimleri planlayın: Geleneksel pentest kapsamınıza “LLM güvenlik testleri” ekleyin: prompt injection, jailbreak denemeleri, veri sızdırma testleri. Bu artık opsiyonel değil.
Hyatt’ın bu hamlesi, kurumsal AI’nin artık bir “proof of concept” olmaktan çıkıp gerçek operasyonun kalbine yerleştiğini gösteriyor. Türk şirketleri için mesaj net: LLM dağıtımı bir IT projesi değil, bir güvenlik projesidir. Bütçeyi ve insan kaynağını buna göre ayarlayan kurumlar önümüzdeki iki yılda rakiplerinden çok daha az olay yaşayacak. Ayarlamayanlar ise ilk büyük LLM kaynaklı veri ihlalini muhtemelen kendi kurumlarında deneyimleyecek.
Orijinal kaynak: https://openai.com/index/hyatt-advances-ai-with-chatgpt-enterprise
Bir Cevap Yazın