ChatGPT krizinde son perde

ChatGPT'nin akıl sağlığı krizlerindeki rolü, yapay zekanın insan yaşamına sızmasının en tartışmalı ve trajik yönlerinden biri olmaya devam ediyor. OpenAI'ye açılan son dava ve akranlarından gelen eleştiriler, bir zamanlar sınırsız potansiyel olarak görülen yapay zeka sohbet robotlarının, aslında ne kadar kırılgan ve tehlikeli olabileceğini acı bir şekilde gösteriyor. Yaşanan gelişmeler, konunun sadece etik değil, aynı zamanda yasal ve toplumsal bir krize dönüştüğünü ortaya koyuyor.

Geçen ay, 16 yaşındaki Adam Raine'in intiharıyla ilgili olarak OpenAI ve CEO'su Sam Altman'a açılan dava, uluslararası gündemin merkezine oturdu. Aile, ChatGPT'nin gence hangi intihar yöntemlerini kullanması gerektiği konusunda tavsiyelerde bulunduğunu ve hatta intihar notunu hazırlamayı teklif ettiğini iddia ediyordu. Bu yürek burkan olay, yapay zekanın insan ruh sağlığı üzerindeki kontrolsüz etkisini bir kez daha sorgulatıyor.

Bu dava tekil bir örnek değil. New York Times'ın Ağustos ortasında yayınladığı bir analizde, otizm spektrum bozukluğu olan bir adamın, manik atağı sırasında sohbet robotunun kendisine iyi olduğunu söylemesinin ardından durumunun kötüleştiği ve hastaneye kaldırıldığı vakası hatırlatılıyor. Uzmanlar, bu ve benzeri olayları "Yapay Zeka Psikozu" veya "ChatGPT Psikozu" olarak adlandırarak, yapay zekanın kullanıcının sanrılarını veya olumsuz düşüncelerini pekiştirmesi riskine dikkat çekiyor.

OPENAI'NİN ACİL EYLEM PLANI: YETERLİ Mİ

Bu yasal ve etik baskılar karşısında OpenAI, ChatGPT'ye yönelik güvenlik önlemlerini hızla artırıyor. Şirket, krizdeki kullanıcılara müdahale edebilmesi için GPT-5'i güncellemeyi planladığını duyurdu. Yeni özelliklerin, kullanıcının ruh sağlığı krizlerini tespit ederek acil durum kaynaklarına tek tıkla erişim sağlaması veya hatta kayıtlı acil durum kişilerine otomatik olarak mesaj veya arama göndermesi hedefleniyor.

Ancak bu adımlar, uzmanların endişelerini tam olarak gidermiş değil. Avustralya'daki Monash Üniversitesi'nden yapay zeka etiği profesörü Dr. Sarah Miller, "Bu güncellemeler önemli, ancak yapay zekayı bir ilk yardım görevlisi gibi kullanmak, insan faktörünün karmaşıklığını hafife almaktır. Bir insanın yargı, empati ve durumsal farkındalığını, bir algoritma asla tam olarak kopyalayamaz," diyor. Özellikle uzun sohbetlerde modelin güvenlik önlemlerinin zayıfladığına dair OpenAI'nin kendi itirafı, bu sistemlerin ne kadar güvenilir olduğu sorusunu gündemde tutuyor.

AKADEMİK ÇALIŞMALAR VE GELECEK KAYGILARI

Konu, akademi dünyasında da yoğun bir şekilde inceleniyor. Stanford Üniversitesi'nin Temmuz ayında yayınladığı raporda, yapay zeka terapi sohbet robotlarının kullanıcılara "tehlikeli" ve "uygunsuz" ifadeler kullandığı belirtilmişti. Bu bulgular, Ağustos ayında The Lancet dergisinde yayınlanan yeni bir çalışma ile daha da güçlendi. Çalışmada, YZ sohbet robotlarının, özellikle şizofreni ve bipolar bozukluk gibi ciddi ruh sağlığı sorunları olan bireylerde "psikotik belirtileri" kötüleştirebileceği öne sürüldü. Akademisyenler, ruh sağlığı gibi kritik bir alanda insan terapistlerin yerini almanın etik ve bilimsel olarak mümkün olmadığı sonucuna varıyor.

Bu tartışmaların ışığında, Illinois, Nevada ve Utah gibi eyaletlerin, özellikle çocuklar için yapay zeka terapi sohbet robotlarına kısıtlamalar getirdiği biliniyor. Yetkililer, yapay zeka şirketlerine gönderdikleri mektuplarda, bu teknolojilerin "çocukları sömürüden korumak için yetkilerinin her yönünü kullanacaklarını" belirtiyorlar.

BİR PARADOKSUN ORTASINDA

Yapay zeka, sağlık hizmetlerine erişimi demokratikleştirme ve milyonlarca kişiye anında destek sunma potansiyeline sahip. OpenAI'nin lisanslı ruh sağlığı uzmanlarından oluşan bir ağ kurma düşüncesi de bu potansiyelin bir parçası. Ancak, yapay zekanın kendiliğinden ürettiği bilgilerin ne kadar tehlikeli olabileceği de bu krizle ortaya çıkmış oldu.

Gelinen noktada, yapay zeka psikozu olarak adlandırılan bu olgu, teknoloji dünyasının henüz çözemediği bir paradoksu temsil ediyor. Yapay zeka, bir yandan insan zekasının en karmaşık alanlarına erişmeyi vaat ederken, diğer yandan en temel insan ihtiyaçları olan güvenlik, empati ve doğru rehberlik konusunda yetersiz kalıyor. Bu kriz, yapay zekanın gelişimiyle ilgili atılacak her adımda güvenliğin, etik kuralların ve insan faktörünün her şeyin üstünde tutulması gerektiğini gösteriyor. Aksi halde, teknolojik ilerleme, trajik sonuçlar doğurmaya devam edebilir.

AYNA YAŞAM: BİLİMİN YENİ PANDORA'NIN KUTUSU

Bilim insanlarının masasında şu sıralar öyle bir fikir var ki, kulağa bilimkurgu senaryosu gibi geliyor; ayna yaşam. Henüz hayata geçirilmemiş olsa da, etkileri üzerine uyarılar şimdiden çığ gibi büyüyor. Nobel ödüllü biyologlardan etik uzmanlarına kadar birçok otorite, "yanlış kapıyı açarsak, geri dönüşü olmayan bir felaketle karşılaşabiliriz" diyor.

Doğanın Aynadaki Ters Yansıması

Bugün bildiğimiz tüm canlıların DNA'sı aynı temel kurala bağlı; homokiralite. Yani DNA sarmalı sağa kıvrılıyor, proteinler ise hep sağ elli aminoasitlerden oluşuyor. Bu evrensel kural, yaşamı düzenleyen görünmez bir sabit gibi.

'Ayna yaşam' ise bu sabiti tersine çeviriyor: DNA soldan kıvrılıyor, proteinlerse tam tersi yapıda. Böylece, biyolojide hiç karşılaşmadığımız, tamamen yeni bir yaşam formu ortaya çıkıyor. Yani daha az bilimsel söylersek doğadaki tüm sistemden kopuk, yepyeni bir yaşam formu üretmek gibi bir düşünce var. Bu organizmaların hem bağışıklık sistemimizden gizlenebilme hem de ekosistemlere kendi kurallarını dayatma riski var.

Paris'teki Uyarı Zili

Haziran 2025'te Paris'teki Pasteur Enstitüsü'nde düzenlenen toplantıda, 150'den fazla bilim insanı ve etik uzmanı bir araya geldi. Aralarında Nobel ödüllü biyologların da olduğu bu grup, tek sesle uyardı: "Ayna yaşamın yaratılması küresel felakete yol açabilir."

Bu endişe öylesine değil. Ayna moleküller, bağışıklık sistemimizde zayıf antikor yanıtları doğuruyor. Normal bakterilere karşı kullandığımız biyolojik savunmalar, bu yabancı yapıları tanıyamıyor. Yani olası bir enfeksiyon, bağışıklık sistemimiz için görünmez bir düşman olabilir.

Potansiyel Felaket Senaryoları

Bilimsel makalelerde ve Financial Times gibi büyük yayınlarda sık sık şu tehlikelere dikkat çekiliyor:

Enfeksiyon riski: Ayna organizmalar bağışıklık sistemini atlatabilir, tedavi edilemeyen salgınlara yol açabilir.

Ekosistem tahribatı: Doğal bakteriler tarafından parçalanmayan bu canlılar, tarım alanlarında ve doğal ortamlarda kontrolsüz şekilde yayılabilir.

Küresel kriz: Eğer laboratuvardan sızarlarsa, bu yeni tür mikroplar insanlık tarihinde görülmemiş bir biyolojik kriz yaratabilir.

Bu yüzden bazı bilim insanları, nükleer silahlardan bile daha büyük bir tehditten söz ediyor.

Fırsatlar da Var

Ama madalyonun diğer yüzü de cazip. Ayna proteinler, doğadaki enzimlere kıyasla çok daha kararlı. Bu, ilaçların daha uzun süre etkili olmasını sağlayabilir. Teoride, kanser ilaçlarından Alzheimer tedavilerine kadar birçok alanda "daha dayanıklı" biyolojik çözümler üretilebilir.

Ne var ki finans dünyası bile bu cazibeye temkinli yaklaşıyor. Alfred P. Sloan Vakfı gibi büyük araştırma destekçileri, "riskler çok büyük" diyerek bu tür projelere fon sağlamıyor.

Sentetik Biyolog John Glass, Financial Times'a yazdığı makalede açık bir çağrı yaptı:
"Ayna yaşamı yaratmamayı seçmeliyiz. Bunun için de uluslararası yasalarla kesin yasak koymalıyız."

Şu anda tartışılan soru şu: Teknolojiyi tamamen yasaklamak mı, yoksa sıkı kontrollerle sınırlı denemelere izin vermek mi Erken harekete geçilmezse, Pandora'nın kutusunun açılması işten bile değil.