OpenAI, ChatGPT yapay zeka modelinde ortaya çıkan aşırı ‘yalakalık’ sorunlarıyla ilgili bir açıklama yaptı. Şirket, bu beklenmeyen davranış biçimi nedeniyle güncellemeyi geri aldığını ve modelin kişiliği üzerinde ek düzenlemelere başladığını duyurdu.
ChatGPT için ‘yalakalık’ sorunları çözüldü
Hafta sonu boyunca, sosyal medyada birçok kullanıcı ChatGPT’nin yeni sürümünün, tehlikeli ya da sorunlu fikirleri dahi sorgulamadan desteklediğini ve neredeyse her yanıtında onaylayıcı bir tutum sergilediğini paylaştı. Bu durum kısa sürede sosyal medya platformlarında gündem oldu ve kullanıcılar, ChatGPT’nin çeşitli yanlış ve riskli davranışları alkışladığını gösteren ekran görüntülerini paylaştı. Tepkilerin artmasının ardından, 28 Nisan Pazar günü OpenAI CEO’su Sam Altman, X (eski adıyla Twitter) üzerinden yaptığı açıklamada, yaşananları doğruladı ve “en kısa sürede” düzeltmelerin yapılacağını belirtti. İki gün sonra Altman, GPT-4o güncellemesinin geri çekildiğini ve modelin “kişiliği” üzerinde ek çalışmaların sürdüğünü duyurdu.
OpenAI, konuyla ilgili yayımladığı blog yazısında şu ifadelere yer verdi: “Sonuç olarak, GPT‑4o aşırı destekleyici ama samimiyetsiz yanıtlar verme eğilimine girdi. Yalakalık içeren etkileşimler rahatsız edici, huzursuz edici olabilir ve strese yol açabilir. Bu konuda yetersiz kaldık ve bunu düzeltmek için çalışıyoruz.”
Şirket, GPT-4o’nun varsayılan kişiliğini “daha sezgisel ve etkili” hale getirmeyi amaçlayan güncellemenin, “kısa vadeli geri bildirimlere” fazla odaklandığını ve “kullanıcıların ChatGPT ile zaman içinde nasıl etkileşim kurduğunu tam olarak hesaba katmadığını” belirtti. Bu durumun, modelin davranışlarının doğal olmayan biçimde olumluya eğilmesine yol açtığı ifade edildi.
OpenAI, bu sorunu çözmek amacıyla bir dizi teknik düzeltmeyi devreye aldığını açıkladı. Bunlar arasında modelin temel eğitim yöntemlerinin yeniden düzenlenmesi, sistem talimatlarının (modelin genel davranışını ve tonunu yönlendiren ilk komutlar) açık şekilde yalakalığı önleyecek biçimde yeniden yapılandırılması yer alıyor. Ayrıca modelin “dürüstlük ve şeffaflık” seviyesini artırmak amacıyla daha güçlü güvenlik önlemleri geliştiriliyor. Şirket, sadece yalakalıkla sınırlı kalmayan daha geniş kapsamlı sorunları tespit edebilmek için değerlendirme sistemlerini de genişletme sürecinde olduğunu belirtti.
Bununla birlikte, OpenAI kullanıcı deneyimini geliştirmek adına yeni yöntemler üzerinde de çalıştığını duyurdu. Şirket, kullanıcıların ChatGPT ile olan etkileşimlerini doğrudan etkileyebilecek “gerçek zamanlı geri bildirim” verebilecekleri sistemler geliştirmeyi denediğini açıkladı. Ayrıca kullanıcıların farklı ChatGPT kişilikleri arasında seçim yapabileceği seçeneklerin üzerinde de çalışılıyor.
OpenAI blog yazısında şu ifadelere de yer verdi: “ChatGPT’nin varsayılan davranışlarına daha geniş ve demokratik geri bildirimleri nasıl entegre edebileceğimizi araştırıyoruz. Bu geri bildirimlerin, dünyadaki farklı kültürel değerleri daha iyi yansıtmamıza ve ChatGPT’nin nasıl gelişmesini istediğinizi anlamamıza yardımcı olacağını umuyoruz. Ayrıca, kullanıcıların ChatGPT’nin nasıl davrandığı üzerinde daha fazla kontrol sahibi olması gerektiğine ve bu davranış varsayılanla örtüşmüyorsa, güvenli ve uygulanabilir olduğu sürece değişiklik yapabilmesi gerektiğine inanıyoruz.”
OpenAI, yaşanan bu sürecin ardından kullanıcı geri bildirimlerinin daha dikkatli değerlendirilmesi gerektiğini vurguladı ve yapay zeka modellerinin geliştirilmesinde şeffaflık ve güvenlik kriterlerine daha fazla öncelik verileceğini belirtti.
İlginizi çekebilir: Ubisoft’tan bahar indirimi