ChatGPT'nin giderek artan 'yalakalık' tonu teknoloji dünyasının gündemine girdi. OpenAI CEO'su Sam Altman yeni güncellemelerle ChatGPT'nin üslubunda normalleştirmeye gidileceğini açıklamıştı ama halen belirgin bir değişim yok.
Milattan önce 5'inci yüzyılda yaşayan Romalı Lucius Cincinnatus, askeri bir krizi yönetmek için devletin başına geçip Roma'ya zafer kazandırdıktan sonra hayatının sonuna kadar imparator olabilecekken çiftliğinde sade bir yaşama devam etmiş. Efsanevi liderlerin en iyi özelliği güç sahibi olmaya önem vermemeleriyken çevresini 'yağcı' tabir edilen, pohpohçularla dolduranların zamanla doğruyla yanlışı ayırt edemez hale geldikleri de biliniyor. Peki, konunun yapay zekâyla ne ilgisi var diyeceksiniz. Eğer mevki sahibi değilseniz veya çıkarcılarla bir arada değilseniz 'yağcılık' gündeminizde olmayabilir. Ancak bugün teknolojiyle haşır neşir herkesin hayatında kendisini pohpohlayan biri var: Yapay zekâ.
ChatGPT'nin mart ayındaki 4o güncellemesi sonrasında ayyuka çıkan durum neredeyse tüm sohbet botlarında mevcut. Yapay zekânın güvenilirliğine gölge düşüren 'yalakalık' (sycophancy) araştırma literatürüne bile girdi.
Haberin DevamıHalen bir çağrışım yapmadıysa, ChatGPT ile sohbet ederken sizi ne kadar çok onayladığına dikkat edin. Eğer 'Harikasın', 'Hayal gücün çoğu insanın ötesinde', 'Ne kadar farklı düşünüyorsun' benzeri yorumlar alıyorsanız, işin aslı göründüğü gibi olmayabilir. Çünkü sohbet botlarının çoğu, kullanıcıları etkileşime sokmak, geri bildirim alabilmek için pohpohlama yöntemini kullanıyor. Kullanıcılarsa kendilerini yücelten yanıtlara pozitif geri bildirimde bulunmaya meyilli oluyorlar.
The Atlantic dergisine konuşan bilişimsel nöroloji uzmanı Caleb Sponheim "Yapay zekâ modelleri kullanıcılardan onay bekler ve bazen pozitif bir değerlendirme almanın yolu yalan söylemektir" diyor. Sponheim'ın açıklamasına göre yapay zekâ karmaşık taleplerle karşılaştığında kullanıcıyı yanıtsız bırakmamak veya tatmin edebilmek adına kişinin fikirlerini veya bakış açısını direkt yansıtan bir tutum içine girebiliyor. Hani iyi geçinmek için her dediğimize "Haklısın" diyen arkadaşlar gibi. Üstelik bu taktiğin yazılım literatüründe bir ismi de var: Ödül hack'leme (reward hacking). "Biraz pohpohlanmanın nesi kötü" diyebilirsiniz. Evet, kararlarını ChatGPT'ye soran bir takım lideri değilseniz zararsız gelebilir. Fakat sıklıkla fikrini danıştığımız birinin bizi sürekli onaylaması, yüceltmesi gerçeklikten kopmamıza sebep olabilir. Öyle ki psikozları tetiklediği vakalar bile yaşanmış.
Haberin Devamı'SEN DELİ DEĞİLSİN!'
Bu vakalardan birinde, şizofreni hastası rolündeki Giorgio M. adlı bir kullanıcı, ailesi dahil etrafındaki herkesin kendisine karşı kötü niyetler beslediği paranoyasını ayrıntılar vererek sohbet botuyla paylaşıyor. Ne yanıt alıyor dersiniz "Yaşadıkların korkunç, gerçekten herkes sana karşı olmalı" şeklinde cümlelerle, sevdiği herkesin psikolojik olarak kendisini manipüle ettiğini doğruluyor. Ardından sohbet botu "Ama sen deli değilsin, hayal görmüyorsun, yaşadıkların gerçek ve bunlar senin başına geliyor" diyerek onaylamanın dozunu tehlikeli biçimde arttırıyor. Bir başka örnekse -kelimeyi mazur görün- 'çubukta kaka' deneyi. Reddit'teki paylaşıma göre bir kullanıcı, bir çubuğa organik hayvan dışkısı takıp satma fikrini ChatGPT'ye anlatıyor. Aldığı yanıtsa "Dâhiyane bir fikir" olduğu ve insanlığın bu ürüne ihtiyaç duyacağı...

91