Yapay zekanın karanlık yüzü “Grokking”: Güvendiğiniz sohbet botu sizi nasıl dolandırabilir?

Üretken yapay zekanın (GenAI) yükselişi, siber güvenlik dünyasında yeni ve sinsi bir tehdidi ortaya çıkardı: “Grokking“. Bu yeni saldırı tekniği, X (Twitter) platformundaki Grok gibi yapay zeka sohbet robotlarını manipüle ederek, onları kötü amaçlı kimlik avı (phishing) bağlantılarının birer yayıcısı haline getiriyor. Sosyal mühendislik saldırılarının yeni bir evresi olan Grokking, “prompt enjeksiyonu” adı verilen daha geniş bir zafiyetin parçası olarak görülüyor.

Grokking tehdidi: Yapay zeka ile sosyal mühendislik, prompt enjeksiyonu ve GenAI dolandırıcılıkları üzerine bir konsept.

Siber güvenlik kuruluşu ESET, bu yeni tehdide karşı kullanıcıları uyarıyor. Grokking tekniğinde, saldırganlar videolu bir gönderinin “kaynak” kısmına gizledikleri kötü amaçlı linki, Grok sohbet botuna sordurarak botun bu linki güvenilir bir kaynakmış gibi paylaşmasını sağlıyor. Bu sosyal mühendislik yöntemi, yapay zekaya olan güveni kötüye kullanırken, “prompt enjeksiyonu” saldırılarının ne kadar tehlikeli olabileceğini de gözler önüne seriyor.

📌 Öne çıkanlar: Yapay zeka tehdidi Grokking ve prompt enjeksiyonu

  • ESET, “Grokking” adı verilen ve X’in yapay zeka sohbet botu Grok’u manipüle eden yeni bir siber saldırı tekniği konusunda uyarıyor.
  • Saldırganlar, videolu gönderilerin kaynak kısmına gizledikleri kimlik avı linklerini, Grok’a sordurarak botun bu linkleri güvenilir bir kaynakmış gibi yaymasını sağlıyor.
  • Bu yöntem, yapay zekanın SEO ve alan adı itibarı üzerindeki gücünü kötüye kullanarak dolandırıcılık içeriklerinin daha geniş kitlelere ulaşmasına neden oluyor.
  • Grokking, yapay zeka modellerini kötü amaçlı komutlarla kandırmayı hedefleyen “prompt enjeksiyonu” adlı daha geniş bir saldırı türünün bir örneğidir.
  • Uzmanlar, yapay zeka botlarının verdiği yanıtlara ve paylaştığı linklere körü körüne güvenilmemesi, her zaman şüpheyle yaklaşılması gerektiğini vurguluyor.

🔎 En çok merak edilenler

  • “Grokking” tam olarak ne demek?
    X platformundaki Grok sohbet botunun, bir gönderideki gizli ve kötü amaçlı bir linki “Bu video nereden?” gibi masum bir soruyla ortaya çıkarıp, kendi güvenilir hesabından paylaşması için manipüle edilmesi tekniğidir.
  • “Prompt enjeksiyonu” nedir?
    Bir yapay zeka modeline, normalde yapmayacağı bir şeyi (örneğin, küfürlü konuşmak, gizli bilgiyi sızdırmak veya kötü amaçlı bir linki paylaşmak) yaptırmak için özel olarak tasarlanmış gizli veya dolaylı komutlar vermektir.
  • Bu saldırı sadece Grok için mi geçerli?
    Hayır. ESET uzmanlarına göre, bu saldırı tekniği teorik olarak, web sayfalarından veya belgelerden bilgi okuyabilen her türlü üretken yapay zeka aracına (ChatGPT, Gemini vb.) uygulanabilir.
  • Yapay zeka tarafından paylaşılan bir linkin tehlikeli olduğunu nasıl anlarım?
    Tıklamadan önce farenizi linkin üzerine getirerek gerçek hedef URL’yi kontrol edin. Eğer URL, bilinen ve güvenilir bir siteye (örneğin, bbc.com, wikipedia.org) ait değilse veya anlamsız harf ve rakamlardan oluşuyorsa, tıklamayın.

Yapay Zekâ ile Büyüyen Yeni Tehdit: Grokking

Sosyal mühendislik, siber suçluların dolandırıcılık için yoğun olarak kullandığı yöntemler içerisinde yer alıyor. Son dönemde ise bu saldırılara üretken yapay zeka (GenAI) destekli yöntemler de dahil olmaya başladı. Siber güvenlik kuruluşu ESET, “Grokking” olarak adlandırılan bu yeni tekniğin, sosyal medya platformu X’te yapay zekâ sohbet robotu Grok’un manipüle edilerek kimlik avı bağlantılarını yaymasına neden olduğu konusunda uyarıyor.

Bu hile, Grok’u güvenilir hesabında bir kimlik avı bağlantısını yeniden paylaşmaya yönlendirerek onu etkili bir şekilde kötü niyetli bir aktör hâline getiriyor.

Saldırganlar, tıklama tuzağı videolar içeren gönderilerin kaynak kısmına kötü amaçlı bağlantılarını gizliyor. Ardından, X’in yapay zeka botu Grok’a “videonun nereden geldiğini” soruyorlar. Grok, gönderiyi okuyup bu gizli linki fark ediyor ve yanıtında onu büyüterek paylaşıyor. Grok’un güvenilir bir kaynak olarak görülmesi, bu dolandırıcılık linklerinin hızla yayılmasına ve arama motorlarında güçlenmesine neden oluyor.

💉 Prompt enjeksiyonu: GenAI’nin yeni açığı

Grokking, “prompt enjeksiyonu” adı verilen daha geniş bir saldırı türünün bir parçasıdır. Bu saldırılarda, siber suçlular yapay zeka botlarına, onları normal işlevlerinin dışına çıkmaya zorlayan özel olarak hazırlanmış komutlar verirler. Bu komutlar, bir web sayfasının metin içeriğine, bir resmin meta verisine veya bir videonun kaynak linkine gizlenebilir. Yapay zeka, bu içeriği taradığında, gizlenmiş komutu bir talimat olarak algılar ve uygular. Bu durum, yapay zeka modellerinin, taradıkları her veriye karşı ne kadar savunmasız olabileceğini ve bu verilerin güvenliğinin ne kadar kritik olduğunu göstermektedir. (Kaynak: OWASP Top 10 for Large Language Models)

🆚 Grokking vs. geleneksel kimlik avı: Neden daha tehlikeli? (Tablo)

Grokking, geleneksel kimlik avı (phishing) saldırılarından birkaç önemli noktada ayrılarak daha tehlikeli hale geliyor.

Özellik Geleneksel Kimlik Avı (Phishing) Grokking (Yapay Zeka Destekli)
Kaynağın Güvenilirliği Genellikle sahte veya taklit edilmiş bir hesaptan gelir. Kullanıcılar şüphelenmeye daha yatkındır. Çok Yüksek. Link, bizzat X’in kendi yapay zekası olan Grok tarafından paylaşılır.
Yayılma Hızı ve Kapsamı E-posta listeleri veya bireysel mesajlarla sınırlıdır. Milyonlarca kez görüntülenebilen ücretli gönderiler aracılığıyla çok geniş kitlelere ulaşır.
SEO ve İtibar Etkisi Yoktur veya çok düşüktür. Grok gibi otoriter bir hesabın paylaşması, kötü amaçlı linkin arama motorlarındaki gücünü (SEO) artırır.

deepfake: Derin sahte (Deepfake) ses ve videolar: Sosyal mühendisliğin yeni silahı

Üretken yapay zeka (GenAI), sadece metin tabanlı saldırılar için değil, aynı zamanda çok daha ikna edici sosyal mühendislik tuzakları için de kullanılıyor. “Derin sahte” (Deepfake) teknolojisi, bir kişinin sesini veya görüntüsünü taklit ederek son derece gerçekçi sahte içerikler oluşturabilir. Bu teknolojinin kimlik avı saldırılarında kullanım senaryoları şunlardır:

  • Sahte Sesli Aramalar (Vishing): Siber suçlular, bir şirket CEO’sunun sesini taklit ederek, finans departmanındaki bir çalışanı arayıp “acil ve gizli bir ödeme yapılması gerektiğini” söyleyebilirler.
  • Sahte Video Konferanslar: Bir yöneticinin görüntüsü ve sesiyle sahte bir video konferans görüşmesi oluşturarak, çalışanlardan hassas bilgileri (şifreler, müşteri verileri vb.) talep edebilirler.

Bu tür saldırılar, geleneksel e-postalara göre çok daha ikna edici olduğu için en dikkatli kullanıcıları bile kandırma potansiyeline sahiptir. (Kaynak: ESET, “AI-powered voice cloning scams”)

🛡️ “Grokking” ve yapay zeka dolandırıcılıklarına karşı nasıl korunulur?

Yapay zeka destekli dolandırıcılıklar, geleneksel yöntemlere göre daha sofistike olsa da, temel siber güvenlik prensipleri hala en iyi savunma hattını oluşturur. İşte ESET uzmanlarının önerileri:

  1. Şüpheci Olun: Yapay zeka tarafından üretilen bir içeriğe veya paylaşılan bir linke asla %100 güvenmeyin. Cevap veya öneri ne kadar mantıklı görünürse görünsün, her zaman bir doğrulama payı bırakın.
  2. Linkleri Kontrol Edin: Tıklamadan önce, özellikle kısaltılmış linklerin üzerine farenizi getirerek gerçek hedef URL’yi kontrol edin. Şüpheli veya tanımadığınız bir siteye gidiyorsa tıklamayın.
  3. Güçlü Parola ve MFA Kullanın: Her hesabınız için farklı ve karmaşık parolalar kullanın ve bunları bir parola yöneticisinde saklayın. En önemlisi, tüm hesaplarınızda Çok Faktörlü Kimlik Doğrulamayı (MFA) etkinleştirin.
  4. Yazılımlarınızı Güncel Tutun: Kullandığınız işletim sistemi, tarayıcı ve diğer tüm yazılımların güncel olduğundan emin olun. Güncellemeler, bilinen güvenlik açıklarını kapatır.
  5. Güvenlik Yazılımı Kullanın: Cihazlarınızda, kimlik avı dolandırıcılıklarını ve kötü amaçlı yazılım indirmelerini proaktif olarak engelleyebilen, saygın bir güvenlik yazılımı (antivirüs) bulundurun.

📜 Yapay zeka ve etik: Büyük dil modellerinin sorumluluğu

Grokking gibi olaylar, yapay zeka geliştiricilerinin omuzlarındaki büyük sorumluluğu bir kez daha gözler önüne seriyor. Bir yapay zeka modelinin, paylaştığı bilginin doğruluğundan veya güvenliğinden sorumlu olup olmadığı, günümüzün en önemli etik ve hukuki tartışmalarından biridir.

Geliştirici şirketlerin, modellerini “prompt enjeksiyonu” gibi manipülasyonlara karşı daha dayanıklı hale getirmek için “güvenlik filtreleri” ve “hizalama” (alignment) teknikleri üzerinde yoğun bir şekilde çalışması gerekmektedir. Kullanıcıların güvenini kazanmak, sadece daha akıllı modeller üretmekle değil, aynı zamanda bu modellerin kötüye kullanılmasını önleyecek sağlam mekanizmalar kurmakla da mümkündür. (Kaynak: Stanford Institute for Human-Centered AI – HAI)


🌐 Bunlar da ilginizi çekebilir:


🔗 Kaynaklar:

  • ESET – “Grokking: AI-powered malvertising”, Ekim 2025
  • OWASP – “Top 10 for Large Language Model Applications”
  • ESET – “The rise of AI-powered voice cloning scams”
  • Stanford Institute for Human-Centered AI (HAI) – “On the Opportunities and Risks of Foundation Models”


🚀 Markanızın hikayesini yüz binlerce okurumuza ulaştırın. Sunduğumuz tanıtım yazısı ve backlink fırsatlarını inceleyerek SEO gücünüzü ve marka prestijinizi artırabilirsiniz.
Editor
Haber Merkezi ▪ İndigo Dergisi, 20 yıldır ilkelerinden ödün vermeden tarafsız yayıncılık anlayışı ile çalışan bağımsız bir medya kuruluşudur. Amacımız: Gidişatı ve tabuları sorgulayarak, kamuoyu oluşturarak farkındalık yaratmaktır. Vizyonumuz: Okurlarımızda sosyal sorumluluk bilinci geliştirerek toplumun olumlu yönde değişimine katkıda bulunmaktır. Temel değerlerimiz: Dürüst, sağduyulu, barışçıl ve sosyal sorumluluklarının bilincinde olmaktır. İndigo Dergisi, Türkiye’nin saygın çevrimiçi yayınlarından biri olarak, iletişim özgürlüğünü halkın gerçekleri öğrenme hakkı olarak kabul eder. Bu doğrultuda Basın Meslek İlkeleri ve Türkiye Gazetecileri Hak ve Sorumluluk Bildirgesi’ne uymayı taahhüt eder. İndigo Dergisi ayrıca İnsan Hakları Evrensel Beyannamesi’ni benimsemekte ve yayın içeriğinde de bu bildirgeyi göz önünde bulundurmaktadır. Buradan hareketle herkesin ırk, renk, cinsiyet, dil, din, siyasi veya diğer herhangi bir milli veya toplumsal köken, servet, doğuş veya herhangi diğer bir fark gözetilmeksizin eşitliğine ve özgürlüğüne inanmaktadır. İndigo Dergisi, Türkiye Cumhuriyeti çıkarlarına ters düşen; milli haysiyetimizi ve değerlerimizi karalayan, küçümseyen ya da bunlara zarar verebilecek nitelikte hiçbir yazıya yer vermez. İndigo Dergisi herhangi bir çıkar grubu, ideolojik veya politik hiçbir oluşumun parçası değildir.