2025’e veda ederken yapay zeka gündemi

Yapay Zeka prompt mühendisliği Deloitte raporu model mimarileri2025’e yaklaşırken bu alandaki gelişmeleri kısaca gözden geçirelim. Özellikle son 6 ay, yapay zeka ve prompt mühendisliği açısından hem uyarıcı hem de hızlandırıcı oldu. Bu dönemde, ders sunumlarımı neredeyse her hafta güncellemem gerekti. Skandallar, tonun etkisi ve yeni model mimarileri, “Yapay zeka ile nasıl yaşayacağız?” sorusunu daha somut hale getirdi. Gelin son 6 ayın dikkat çeken başlıklarına bakalım.

Devlet raporlarında iki Deloitte depremi

İlk olarak Avustralya’daki Deloitte raporu öne çıktı. Şirketin, İstihdam ve Çalışma İlişkileri Bakanlığı’na sunduğu 440 bin Avustralya dolarlık raporda uydurma akademik referanslar ve hayali bir mahkeme alıntısı tespit edildi. Bunun üzerine Deloitte, ücretin bir kısmını iade etmeyi kabul etti.

Benzer bir durum Kanada’da yaşandı. Newfoundland ve Labrador eyaleti için hazırlanan yaklaşık 1,6 milyon Kanada dolarlık sağlık iş gücü raporunda da olmayan makalelere atıflar bulundu. Ayrıca birlikte çalışmamış araştırmacılara ortak yazarlık verildiği ortaya çıktı. Eyalet hükümeti bu nedenle raporda yapay zeka kullanımını incelemeye aldı.

Bu iki örnek, “AI destekli rapor” etiketinin artık otomatik güven üretmediğini gösterdi. Aynı zamanda kamuda yapay zeka kullanımının güçlü doğrulama, şeffaflık ve insan denetimi olmadan sürdürülemez olduğunu netleştirdi.

Büyük dil modelleri 2026 LLMs

Zor Problemler, Hızlı Sürprizler

Bu yılın sembolik hikâyelerinden biri Yu Tsumura’nın 554 numaralı problemi oldu. Ağustos ayında Oxford ve Cambridge’den araştırmacılar, dönemin büyük dil modellerinin bu zor grup teorisi problemini çözemediğini yazdı. Ancak kısa süre sonra aynı problem GPT-5 Pro ile yalnızca 15 dakikada çözüldü. Bu gelişme, “yapılamaz” denilen birçok şeyin yapay zekada ne kadar hızlı mümkün hale gelebildiğini gösterdi. Aynı zamanda sorunun nasıl sorulduğunun, yani prompt mühendisliğinin, sonuç üzerindeki belirleyici rolünü ortaya koydu.

Ton, nezaket ve yanıt kalitesi

Son aylarda yayımlanan çalışmalar, LLM’lerin sadece ne sorulduğuna değil, nasıl sorulduğuna da duyarlı olduğunu gösterdi. Bazı deneylerde, kısa ve net bir tonun, aşırı kibar ve dolambaçlı dile kıyasla çoktan seçmeli sorularda doğruluğu birkaç puan artırdığı gözlendi. Ayrıca farklı dillerde ideal nezaket seviyesinin değiştiği raporlandı. Türkçe, İngilizce ve Japonca için aynı ton aynı etkiyi yaratmıyor.

Bu bulgular, prompt mühendisliğinin dilbilimsel ve kültürel boyutunun model mimarisi kadar önemli hale geldiğini gösteriyor. Kısacası nezaket her bağlamda işe yaramıyor.

Model cephesinde: tekrar, bağlam ve unutma

Model tarafında da önemli ilerlemeler görüldü. Stanford çevresindeki çalışmalar, kötü tanımlanmış olasılık yapılarının modelleri aynı cevaba kilitlediğini ortaya koydu. Buna karşılık, net olasılık ve senaryo tanımları yaratıcılığı yaklaşık dört kat artırdı.

MIT’nin SEAL yaklaşımı, modellerin bağlama göre gerçek zamanlı uyumlanmasını hedefliyor. Bu sayede daha isabetli ve duruma göre değişen yanıtlar amaçlanıyor. Google’ın “Attention All You Need v2” çalışması da bu çizgide dikkat çekti. Yayın, “Nested Learning” fikriyle modelleri farklı hızlarda güncellenen iç içe optimizasyon katmanları olarak ele alıyor. Böylece katastrofik unutmayı azaltmayı ve daha sürekli bir öğrenme yapısı kurmayı öneriyor.

Bu üç çalışma, 2026’ya yaklaşırken LLM’lerin daha az tekrar eden, bağlamı daha iyi kullanan ve unutmadan öğrenebilen sistemlere evrildiğini gösteriyor.

GPT-5 Pro ile çözülen karmaşık matematik problemleri

Yeni yıl Eşiğinde Görünen Tablo

Son altı ayın manzarası, yapay zekanın artık bir oyuncak olmadığını açıkça ortaya koyuyor. Kötü tasarlanmış süreçler, Deloitte örneklerinde olduğu gibi milyonlarca dolarlık hatalara ve politik krizlere yol açabiliyor. Buna karşılık iyi tasarlanmış prompt’lar ve yeni mimariler, aynı teknolojiyi daha güvenilir ve yaratıcı bir araca dönüştürebiliyor.

Yeni yıla girerken belki de en gerçekçi dilek şudur. Yapay zekanın daha zeki olması değil, onu kullanan insanların daha dikkatli, şeffaf ve eleştirel olması. 2025’in bu bilinçle daha sağlam bir yıl olmasını umalım.


🔗 Kaynaklar:

  1. Deloitte to pay back some of $440,000 to the Australian Government after the report was found riddled with errors. News.com.au. https://www.news.com.au/finance/business/other-industries/deloitte-to-pay-back-some-of-440000-to-australian-government-after-report-found-riddled-with-errors/news-story/a694c1fbfb97063a79c41b9f19257bae
  2. Deloitte allegedly cited AI-generated research in a million-dollar report for a Canadian provincial government | Fortune https://fortune.com/2025/11/25/deloitte-caught-fabricated-ai-generated-research-million-dollar-report-canada-government/
  3. LLMs as the Foundation of Agentic AI. IBM Thinkhttps://www.ibm.com/think/insights/agentic-ai
  4. Simon Frieder, William Hart. No LLM Solved Yu Tsumura’s 554th Problem. arXiv preprint https://arxiv.org/abs/2508.03685
  5. https://chatgpt.com/share/68e26ef8-c678-8007-843e-28119736de2c
  6. Additional report: GPT-5 Pro solved the Problem in 15 Minutes. LinkedIn. https://www.linkedin.com/posts/satyamurthy-nageswaran-60a9267_gpt-5-pro-solved-in-just-15-minutes-without-activity-7380746728163053568-JRfL
  7.  Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy. arXiv preprint. https://arxiv.org/abs/2510.04950
  8. MIT: Self-Adapting Language Models (SEAL). VentureBeat.
    https://venturebeat.com/ai/self-improving-language-models-are-becoming-reality-with-mits-updated-seal
  9. Why AI Gets Stuck on the Same Answers and How to Fix It. Stanford Research / Medium. https://medium.com/@thrishank007/stanford-just-solved-one-of-ais-biggest-mysteries-why-chatgpt-keeps-repeating-itself-81f19ef732e4
  10. Introducing Nested Learning: A New ML Paradigm for Continual Learning. Google Research Blog, https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/

🌐 Bunlar da ilginizi çekebilir:

Ruken Zilan
Ruken Zilan, lise eğitimini 15 yaşında tamamlamış, sonrasında akademik yolculuğuna Gazi Üniversitesi ve Orta Doğu Teknik Üniversitesi'nde (ODTÜ) Fizik alanındaki lisans ve yüksek lisans programlarıyla devam etmiştir. Ardından, TOBB Ekonomi ve Teknoloji Üniversitesi Bilgisayar Mühendisliği bölümünde ikinci yüksek lisansını tamamlamıştır. Uzmanlık alanları arasında Güneş Enerjisi ve Kablosuz Sensör Ağları bulunmaktadır. Akademik çalışmaları boyunca temiz enerji kaynakları ve bilişim teknolojilerinde güvenlik konularına odaklanmıştır. Ayrıca, yapay zekâ (AI) ve prompt mühendisliği alanlarındaki çalışmalarını da aktif olarak sürdürmektedir. Uluslararası alanda, 2007-2018 yılları arasında UPC BarcelonaTech'te doktora araştırmalarını yürütmüş, 2008-2012 yılları arasında ise Barselona Süper Bilgisayar Merkezi'nde CISCO California bursiyeri olarak görev yapmıştır. Türkiye'ye döndükten sonra kariyerine İTÜ, ODTÜ ve İstanbul Teknokent bünyesinde çeşitli projelerde yer alarak devam etmiştir. Halen özel bir üniversitede Yazılım Mühendisliği bölümünde yarı zamanlı ders vermektedir.