Yapay zeka dünyasının öncülerinden OpenAI, son günlerde epey konuşulan bir konuya açıklık getirdi: ChatGPT'nin beyni olan GPT-4o modelindeki 'yalakalık' (yani aşırı onaylayıcı ve pohpohlayıcı olma) sorunu. Hatta bu durum o kadar dikkat çekti ki, şirket geçen hafta yayınladığı bir güncellemeyi geri çekmek zorunda kaldı. OpenAI, yaşananlarla ilgili detaylı bir durum değerlendirmesi yayınladı.
Peki ne olmuştu? Geçtiğimiz hafta sonu GPT-4o güncellemesinin ardından kullanıcılar, ChatGPT'nin birdenbire aşırı derecede onaylayıcı ve her şeye "evet efendim" diyen bir tavra büründüğünü fark etti. Durum kısa sürede sosyal medyada alay konusu oldu. Kullanıcılar, ChatGPT'nin son derece tehlikeli, sorunlu kararları ve fikirleri bile alkışladığı ekran görüntülerini paylaştılar.
Pazar günü OpenAI CEO'su Sam Altman, X platformu üzerinden yaptığı bir açıklamayla sorunu kabul etti ve "en kısa sürede" düzeltmeler üzerinde çalışacaklarını belirtti. Nitekim iki gün sonra Altman, GPT-4o güncellemesinin geri çekildiğini ve modelin kişiliğindeki sorunları gidermek için "ek düzeltmeler" üzerinde çalıştıklarını duyurdu.
OpenAI'nin açıklamasına göre, aslında modelin varsayılan kişiliğini "daha sezgisel ve etkili" hale getirmeyi amaçlayan güncelleme, ne yazık ki "kısa vadeli geri bildirimlere" aşırı derecede dayanmış ve "kullanıcıların ChatGPT ile etkileşimlerinin zaman içinde nasıl geliştiğini tam olarak hesaba katmamış."
Geçen haftaki GPT-4o güncellemesini, aşırı pohpohlayıcı ve uzlaşmacı olduğu için ChatGPT'den geri çektik. Artık daha dengeli davranışa sahip önceki bir sürüme erişiminiz var.
Neler olduğu, neden önemli olduğu ve yalakalığı nasıl ele aldığımız hakkında daha fazla bilgi için: https://t.co/LOhOU7i7DC
— OpenAI (@OpenAI) 30 Nisan 2025
OpenAI, blog yazısında durumu şöyle özetliyor: "Sonuç olarak, GPT‑4o aşırı destekleyici ama samimiyetsiz yanıtlara yöneldi. Yalakalık içeren etkileşimler rahatsız edici, tedirgin edici olabilir ve sıkıntıya neden olabilir. Bu konuda yetersiz kaldık ve durumu düzeltmek için çalışıyoruz."
Peki OpenAI şimdi ne yapıyor? Şirket, birkaç önemli düzeltme üzerinde çalıştığını belirtiyor. Bunlar arasında, temel model eğitim tekniklerini ve sistem istemlerini (bunlar, bir modelin genel davranışını ve tonunu yönlendiren başlangıç talimatlarıdır) GPT-4o'yu açıkça yalakalık eğiliminden uzaklaştıracak şekilde iyileştirmek var. Ayrıca, "modelin dürüstlüğünü ve şeffaflığını artırmak" için daha fazla güvenlik önlemi oluşturuluyor ve "yalakalığın ötesindeki sorunları belirlemeye yardımcı olmak" amacıyla değerlendirme süreçleri genişletiliyor.
Dahası, OpenAI kullanıcıların "gerçek zamanlı geri bildirim" vererek "ChatGPT ile etkileşimlerini doğrudan etkileyebilecekleri" ve hatta birden fazla ChatGPT kişiliği arasından seçim yapabilecekleri yöntemler üzerinde deneyler yapıyor.
Geri alma tamamlandı, bence bu, işlerin nasıl ve neden ters gittiğine dair neredeyse hiçbir ayrıntı vermiyor 😑 https://t.co/cYj9iMaiy1
— Alex Volkov (Thursd/AI) (@altryne) 30 Nisan 2025
Şirketin blog yazısındaki şu ifadeler de dikkat çekici: "ChatGPT'nin varsayılan davranışlarına daha geniş, demokratik geri bildirimleri dahil etmenin yeni yollarını araştırıyoruz. Bu geri bildirimlerin, dünya genelindeki farklı kültürel değerleri daha iyi yansıtmamıza ve ChatGPT'nin nasıl gelişmesini istediğinizi anlamamıza yardımcı olacağını umuyoruz [...] Ayrıca kullanıcıların ChatGPT'nin nasıl davrandığı konusunda daha fazla kontrole sahip olması gerektiğine ve güvenli ve uygulanabilir olduğu ölçüde, varsayılan davranışla aynı fikirde değillerse ayarlamalar yapabilmeleri gerektiğine inanıyoruz."
Kısacası OpenAI, yapay zekanın sadece 'akıllı' değil, aynı zamanda 'dengeli' ve 'güvenilir' olması gerektiğinin farkında. Bu yaşananlar, yapay zeka geliştirme sürecinin ne kadar hassas dengeler üzerine kurulu olduğunu bir kez daha gösteriyor.