
Devlet raporlarında iki Deloitte depremi
İlk olarak Avustralya’daki Deloitte raporu öne çıktı. Şirketin, İstihdam ve Çalışma İlişkileri Bakanlığı’na sunduğu 440 bin Avustralya dolarlık raporda uydurma akademik referanslar ve hayali bir mahkeme alıntısı tespit edildi. Bunun üzerine Deloitte, ücretin bir kısmını iade etmeyi kabul etti.
Benzer bir durum Kanada’da yaşandı. Newfoundland ve Labrador eyaleti için hazırlanan yaklaşık 1,6 milyon Kanada dolarlık sağlık iş gücü raporunda da olmayan makalelere atıflar bulundu. Ayrıca birlikte çalışmamış araştırmacılara ortak yazarlık verildiği ortaya çıktı. Eyalet hükümeti bu nedenle raporda yapay zeka kullanımını incelemeye aldı.
Bu iki örnek, “AI destekli rapor” etiketinin artık otomatik güven üretmediğini gösterdi. Aynı zamanda kamuda yapay zeka kullanımının güçlü doğrulama, şeffaflık ve insan denetimi olmadan sürdürülemez olduğunu netleştirdi.
Zor Problemler, Hızlı Sürprizler
Bu yılın sembolik hikâyelerinden biri Yu Tsumura’nın 554 numaralı problemi oldu. Ağustos ayında Oxford ve Cambridge’den araştırmacılar, dönemin büyük dil modellerinin bu zor grup teorisi problemini çözemediğini yazdı. Ancak kısa süre sonra aynı problem GPT-5 Pro ile yalnızca 15 dakikada çözüldü. Bu gelişme, “yapılamaz” denilen birçok şeyin yapay zekada ne kadar hızlı mümkün hale gelebildiğini gösterdi. Aynı zamanda sorunun nasıl sorulduğunun, yani prompt mühendisliğinin, sonuç üzerindeki belirleyici rolünü ortaya koydu.
Ton, nezaket ve yanıt kalitesi
Son aylarda yayımlanan çalışmalar, LLM’lerin sadece ne sorulduğuna değil, nasıl sorulduğuna da duyarlı olduğunu gösterdi. Bazı deneylerde, kısa ve net bir tonun, aşırı kibar ve dolambaçlı dile kıyasla çoktan seçmeli sorularda doğruluğu birkaç puan artırdığı gözlendi. Ayrıca farklı dillerde ideal nezaket seviyesinin değiştiği raporlandı. Türkçe, İngilizce ve Japonca için aynı ton aynı etkiyi yaratmıyor.
Bu bulgular, prompt mühendisliğinin dilbilimsel ve kültürel boyutunun model mimarisi kadar önemli hale geldiğini gösteriyor. Kısacası nezaket her bağlamda işe yaramıyor.
Model cephesinde: tekrar, bağlam ve unutma
Model tarafında da önemli ilerlemeler görüldü. Stanford çevresindeki çalışmalar, kötü tanımlanmış olasılık yapılarının modelleri aynı cevaba kilitlediğini ortaya koydu. Buna karşılık, net olasılık ve senaryo tanımları yaratıcılığı yaklaşık dört kat artırdı.
MIT’nin SEAL yaklaşımı, modellerin bağlama göre gerçek zamanlı uyumlanmasını hedefliyor. Bu sayede daha isabetli ve duruma göre değişen yanıtlar amaçlanıyor. Google’ın “Attention All You Need v2” çalışması da bu çizgide dikkat çekti. Yayın, “Nested Learning” fikriyle modelleri farklı hızlarda güncellenen iç içe optimizasyon katmanları olarak ele alıyor. Böylece katastrofik unutmayı azaltmayı ve daha sürekli bir öğrenme yapısı kurmayı öneriyor.
Bu üç çalışma, 2026’ya yaklaşırken LLM’lerin daha az tekrar eden, bağlamı daha iyi kullanan ve unutmadan öğrenebilen sistemlere evrildiğini gösteriyor.
Yeni yıl Eşiğinde Görünen Tablo
Son altı ayın manzarası, yapay zekanın artık bir oyuncak olmadığını açıkça ortaya koyuyor. Kötü tasarlanmış süreçler, Deloitte örneklerinde olduğu gibi milyonlarca dolarlık hatalara ve politik krizlere yol açabiliyor. Buna karşılık iyi tasarlanmış prompt’lar ve yeni mimariler, aynı teknolojiyi daha güvenilir ve yaratıcı bir araca dönüştürebiliyor.
Yeni yıla girerken belki de en gerçekçi dilek şudur. Yapay zekanın daha zeki olması değil, onu kullanan insanların daha dikkatli, şeffaf ve eleştirel olması. 2025’in bu bilinçle daha sağlam bir yıl olmasını umalım.
🔗 Kaynaklar:
- Deloitte to pay back some of $440,000 to the Australian Government after the report was found riddled with errors. News.com.au. https://www.news.com.au/finance/business/other-industries/deloitte-to-pay-back-some-of-440000-to-australian-government-after-report-found-riddled-with-errors/news-story/a694c1fbfb97063a79c41b9f19257bae
- Deloitte allegedly cited AI-generated research in a million-dollar report for a Canadian provincial government | Fortune https://fortune.com/2025/11/25/deloitte-caught-fabricated-ai-generated-research-million-dollar-report-canada-government/
- LLMs as the Foundation of Agentic AI. IBM Think. https://www.ibm.com/think/insights/agentic-ai
- Simon Frieder, William Hart. No LLM Solved Yu Tsumura’s 554th Problem. arXiv preprint https://arxiv.org/abs/2508.03685
- https://chatgpt.com/share/68e26ef8-c678-8007-843e-28119736de2c
- Additional report: GPT-5 Pro solved the Problem in 15 Minutes. LinkedIn. https://www.linkedin.com/posts/satyamurthy-nageswaran-60a9267_gpt-5-pro-solved-in-just-15-minutes-without-activity-7380746728163053568-JRfL
- Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy. arXiv preprint. https://arxiv.org/abs/2510.04950
- MIT: Self-Adapting Language Models (SEAL). VentureBeat.
https://venturebeat.com/ai/self-improving-language-models-are-becoming-reality-with-mits-updated-seal - Why AI Gets Stuck on the Same Answers and How to Fix It. Stanford Research / Medium. https://medium.com/@thrishank007/stanford-just-solved-one-of-ais-biggest-mysteries-why-chatgpt-keeps-repeating-itself-81f19ef732e4
- Introducing Nested Learning: A New ML Paradigm for Continual Learning. Google Research Blog, https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/
🌐 Bunlar da ilginizi çekebilir:
- Yapay Zeka Modelleri ve Psikolojik Tespitler
Gemini, Claude ve Grok gibi modellerin insan psikolojisi üzerindeki derin analiz yeteneklerini keşfedin. - SEAL Tekniği: Kendi Kendine Öğrenme
Yapay zekanın pekiştirmeli öğrenme ile kendi sınırlarını nasıl aştığını ve SEAL tekniğinin detaylarını inceleyin. - Yapay Zeka Yönetici Dönemi Başlıyor
Karar alma mekanizmalarında algoritmaların rolü ve iş dünyasında değişen liderlik vizyonu. - Yapay Zeka Araçları Pazar Payı Analizi
ChatGPT, Gemini ve Perplexity arasındaki rekabette son durum ve kullanıcı tercihleri. - Sporda Yolsuzlukla Mücadelede Yapay Zeka
ICSS ve ACTA kılavuzu eşliğinde sporun dürüstlüğünü koruyan yeni nesil teknolojik çözümler. - Grokking ve Prompt Enjeksiyonu Tehdidi
Yapay zeka güvenliğinde kritik bir terim olan grokking ve siber saldırı yöntemlerine karşı önlemler. - Goldman Sachs: Beyaz Yaka ve Yapay Zeka Anketi
Finans devinin verileriyle yapay zekanın iş gücü ve istihdam üzerindeki gerçek etkisi. - KURGAN: Yapay Zeka ile Vergi Denetimi
Riskli mükelleflerin tespiti ve vergi denetiminde kullanılan yerli yapay zeka sistemi KURGAN’ı tanıyın. - İletişim Profesyonelleri İçin Yapay Zeka Eğitimi
Yeni nesil iletişimcilerin dijital dönüşümde bir adım önde olması için gereken yetkinlikler. - Yapay Zeka Kaynaklı İşten Çıkarmalar
Raporlar ve gerçekler arasındaki fark; yapay zeka istihdamı tehdit mi ediyor yoksa dönüştürüyor mu? - Spor Sektöründe Yapay Zeka: Fırsatlar ve Riskler
Performans analizinden taraftar deneyimine kadar spor dünyasını bekleyen teknolojik devrim.




