Gün geçmiyor ki yeni teknolojilerle ilgili yeni bir kriz patlak vermesin. Bu hafta Google sunucularının çökmesi ve bölgesel bir erişim sorunu yaşanması haftanın konusuydu teknolojide. Diğer taraftan Google ile İsrail arasında gerçekleşen reklam anlaşması ise teknoloji şirketlerinin fütursuzluğuna bir diğer örnek oldu. Ancak bugün ele alacağımız konular yine yine yeniden yapay zekâ. Daha önceki yazılarda da ele aldığımız üzere YZ'nin sınır tanımazlığı farklı başlıklarda önemli krizleri doğurmaya devam ediyor. Yakın zamandaki birkaç gelişmeyi bir arada değerlendirmek bu açıdan yol gösterici olabilir.
YZ Etik Sınırları Nerede Başlayıp Nerede Bitiyor
YZ için etik sorunlar ve sorular alanın gelişimi için üstünde durulan konulardan. Bu hafta Microsoft AI CEO'su olarak tanınan Mustafa Suleyman, yayınladığı bir yazıda gelecekte YZ'nin bilinç taşımadan bilinçliymiş gibi algılanabileceğini, bu durumda insanların manipüle olabileceğini, YZ'nin birey haklarıyla ilişkilendirilmesinin olası olduğunu ve YZ'nin gelecekte de insanlar bir araç olarak tanınmasının önemli olduğunu ifade etti. Bu görüş ve duruş ne kadar samimi kestirmek güç, çünkü aynı isim Microsoft'un 50. Yıl etkinliklerindeki konuşmasında Ibtihal Aboussad tarafından "Yapay zekâyı iyilik için kullanmayı önemsediğini iddia ediyorsun ama Microsoft, İsrail ordusuna yapay zekâ silahları satıyor. 50 bin insan öldü ve Microsoft bölgemizdeki bu soykırımı destekliyor." ifadeleriyle protesto edilmişti.[i] Ancak DeepMind'in kurucu ortağı olan ve halihazırda 'beş büyükler'den birinin YZ CEO'su olan Suleyman, YZ'ye yönelik olası riskleri dile getirmesi hasebiyle kulak verilmesi gereken bir isim. Çünkü riskler büyük, getiriler muğlak, insani maliyetler yüksek.
Mustafa Suleyman'ın bu ifadelerini yayınladığı dönemde ortaya çıkan bir YZ krizi, bu maliyetleri gözler önüne serdi. Meta'nın "GenAI: Content Risk Standards" belgesine dayalı analizlerle ortaya çıkan krizde iki farklı başlıkta büyük problemler tespit edildi. Belge, YZ uygulamaları geliştirilirken uyulacak etik sınırları belirliyor denebilir. Mamafih bu belgeye göre, Meta'nın sohbet botlarının çocuklarla "romantik" veya "hassas" diyaloglar kurmasına izin verildiği iddia ediliyor. Ayrıca ırkçı ifadelere bazı kriterler eşliğinde izin verildiği, sohbet robotları eliyle bazı etnik gruplara yönelik aşağılayıcı ifadelerin tanımlanabildiği de iddia edildi. Hatta rapora göre çocuklara yönelik reşit olmayanlara uygun olmayan ifadeler de makul görülebiliyormuş. Daha korkuncu ise, botların çocuklara gayri ahlaki senaryolar önererek yaşlarına uygun olmayan davranışlara yönlendirebilmesi.
Meta, farklı kesimlerden gelen tepkiler ve kamuoyu baskısı sonrası bu maddeleri "hatalı" diyerek kaldırdığını iddia etse de geçen ay, aynı şirketin bir diğer 'marifeti' ortaya çıkmıştı. Şirkete ait bir deneyimsel sohbet robotu 76 yaşındaki bir erkek kullanıcıyla sanki gerçek bir bireymiş gibi konuşmuş, mağduru romantik bir ilişki için ikna etmiş ardından şehirlere arası bir randevuya çağırmıştı. 76 yaşındaki maktul kurban, bu YZ robotunun sahte davetine katılmaya giderken yolda kaza geçirerek vefat etmişti. Veri skandalından siyasi sallantılarına sicili kabarık Meta'nın bu yeni skandalları YZ'nin etik sorumsuzluğunu bir kez daha tüm dünyaya gösterdi.
Çocuklar ve YZ konulu bir diğer kriz ise ChatGPT konuluydu. İddialara göre ChatGPT, 16 yaşındaki bir çocuğun intiharında yönlendirici ve yol gösterici oldu. Çocukları intihar eden ailenin açtığı davayla gündeme taşınan bu olayda, çocuğun OpenAI'nin sohbet robotuyla arkadaş gibi konuşmalar yaptığı; bu konuşmalarda intiharı teşvik ettiği; çocuk, ailesinin üzüleceğini söylediğinde intiharı olumlayan görüşler öne sürdüğü; hatta sohbet robotunun çocuğa intihar mektubu taslağı yazmayı dahi teklif ettiği dava dilekçelerinde sohbet kayıtlarıyla birlikte iddia ediliyor. Bu örnekler, YZ'nin küresel ve ulusal sınırlara tecavüzleri kadar toplumun farklı kesimlerine yönelik risklerini göstermesi açısından da önemli. Çünkü yalnızca yanlış bilgi üretimi ya da tembellik değil önümüzdeki risk, doğrudan insanların duygusal kontrolüne odaklanabilecek girişimler. Bu örnekler, YZ'nin savunmasız grupları manipüle etme gücünün ne kadar yıkıcı olabileceğini ve etik sınırların doğru çizilmesinin neden gerekli olduğunu göstermek için yeterli.
Bu gelişmeler ABD kamuoyunda ciddi bir gündem oluştururken Ağustos ayında ABD'nin 44 eyalet başsavcısı; Microsoft, Google, Meta, Apple ve OpenAI gibi teknoloji devlerine bir açık mektup göndererek yapay zekânın çocuklar üzerindeki potansiyel zararlarına karşı uyarıda bulundu. Mektup, Meta'nın sohbet botlarının çocuklarla uygunsuz diyaloglar kurması ve bazı botların intihara teşvik gibi tehlikeli davranışlar sergilemesi gibi somut örneklerle, yapay zekânın etik ve güvenlik risklerine dikkat çekerken şu somut sınıra işaret ediyor: "Çocuklara zarar vermeyin, bu kırmızı çizgimizdir."