Yapay Zekâ Çağında Dijital Özerklik, Mahremiyet Erozyonu Ve Algoritmik Hakimiyet

Yapay zekânın (YZ) sunduğu parlak yeniliklerin gölgesinde, etik ve mahremiyetle ilgili ciddi tehditler büyüyor. Geçtiğimiz günlerde gündeme gelen, xAI'nin Grok YZ aracının tartışmalı cevapları bir örnek olarak öne çıkarken, pek gündeme gelmeyen iki kritik gelişme daha YZ'nin tartışmalı gidişatına dair bizi uyarıyor. Geçen hafta Google'ın Gemini uygulamasının kullanıcıların WhatsApp mesajlarına, SMS'lerine ve aramalarına izinsiz erişim sağlayacağına dair bilgiler ve geçtiğimiz aylarda Microsoft'un Windows Recall uygulamasının düzenlik ekran görüntüsü alacağına dair haberler birey haklarına yönelik yeni soru işaretlerini gündeme getirdi. Geçmişte, teknolojinin kötüye kullanımı insan haklarını nasıl zedelediyse, bugün de yapay zekâ benzer riskler taşıyor. Bu riskleri göz önünde tutarak düzenleyici tedbirleri ele almak günden güne daha büyük bir ihtiyaç halini alıyor.

Dijital Alanda Etik Sorunlar ve Birey Hakları

Yakın tarih, teknolojinin mahremiyet ve insan hakları üzerindeki etkilerine dair önemli dersler sunuyor. 2013'te Edward Snowden'ın ifşaatları, NSA'in PRISM programıyla dünya çapında milyonlarca insanın iletişim verilerini topladığını ortaya çıkarmıştı. Bu olay, devletlerin ve teknoloji şirketlerinin veri toplama pratiklerinin bireysel özgürlükleri nasıl tehdit edebileceğini gösteren örnekler olarak hafızalara kazındı. Benzer şekilde, 2018'deki Cambridge Analytica skandalı, Facebook'un kullanıcı verilerinin siyasi manipülasyon için kötüye kullanıldığını açığa vurmuştu. Bugün de yapay zekâ bu riskleri katlayarak artırıyor.

Google'ın Gemini uygulamasının, kullanıcıların özel mesajlarına ve aramalarına erişmesi, geçmişteki veri skandallarını anımsatıyor. Uygulamanın, "Gemini Uygulama Etkinliği" ayarı kapalı olsa bile verilere erişmeye devam etmesi ve bu verileri 72 saat cihazda tutması, kullanıcıların kendi verileri üzerindeki kontrolünü ciddi şekilde sınırlandırıyor. Benzer şekilde, Microsoft'un Windows Recall aracı, her beş saniyede bir ekran görüntüsü alarak kullanıcıların dijital etkinliklerini izliyor. Bu tür uygulamalar, Avrupa İnsan Hakları Sözleşmesinde geçen bireylerin özel hayatına saygı hakkını doğrudan tehdit ediyor. Geçmişte, veri toplamak meşru güç tekelinin efendileri olan devletler eliyle ya da ancak ticari gayelerle şirketler tarafından yapılıyordu. Bu veriler ise genellikle hedefli, daha küçük grupları amaçlayan şekillerde kullanılıyordu. Bugün ise YZ, bu süreci otomatikleştirerek, görünmez kılarak ve dijital araçlara erişimin gittikçe arttığı günümüzde herkesi etkileyerek daha da tehlikeli hale getiriyor.

Aslında yapay zekânın etik sorunları, mahremiyetin de ötesine uzanıyor. Grok'un, tartışmalı konularda Elon Musk'ın fikirlerini referans aldığına dair iddialar, YZ sistemlerinin tarafsızlık sorununu ortaya koyuyor. YZ'deki önyargılar yalnızca ideolojik de değil, aynı zamanda toplumsal ayrımcılığı körükleyebiliyor. Örneğin, 2016'da ProPublica'nın araştırması, COMPAS adlı bir YZ algoritmasının, ırkçı tavırlar sergilediğini ve bazı grupları doğrudan suçlu gibi yanlış sınıflandırdığını ortaya koymuştu. Bu, YZ'nin adil yargılanma hakkını ihlal edebileceğini gösteriyordu. Grok gibi modellerin önyargılı cevapları ise bir yandan toplumsal kutuplaşmaları tahrik ederken diğer taraftan bireylerin ifade özgürlüğü ile bilgiye tarafsız erişim hakkını zedelemeye devam ediyor.

Görüldüğü üzere YZ'nin mahremiyet ve etik sorunları, insan hakları üzerinde doğrudan riskler üretiyor. Gemini ve Windows Recall gibi uygulamalar, kullanıcıların bilgilendirilmiş rıza olmadan verilerinin toplanmasıyla, bireylerin özerkliğini, bireylerin özel hayatına saygı hakkını ve kişisel güvenliklerini tehdit ediyor. İkincisi, önyargılı YZ sistemleri eşitlik ve ayrımcılık yasağı gibi temel hakları riske atıyor. Üçüncüsü, bu sistemlerin kötüye kullanımı, ifade özgürlüğü ve demokratik süreçleri tehdit etme riskini artırıyor. Tüm bu tartışmalar üç temel hususu öne çıkarıyor: Dijital özerklik, mahremiyet erozyonu ve algoritmik hakimiyet.

Dijital Özerklik, Mahremiyet Erozyonu, Algoritmik Hakimiyet

Dijital özerklik, bireylerin kendi verileri üzerinde tam kontrol sahibi olma, bu verilerin nasıl toplandığı, işlendiği ve paylaşıldığı konusunda bilgilendirilmiş rızasını ve bu süreçleri aktif olarak yönetme hakkını ifade etmekte. Google'ın Gemini ve Microsoft Recall uygulamalarının, kullanıcıların WhatsApp mesajları ve aramalarına izinsiz erişimi, izinsiz ekran görüntüsü alma girişimleri dijital özerkliğin ihlal edildiğini gösteriyor. Dijital özerklik, yalnızca bireysel bir hak değil, aynı zamanda demokratik toplumlarda bireylerin özgür iradesini korumanın temel taşı. YZ çağında dijital özerklik, bireylerin "dijital benliklerini" koruma mücadelesinin merkezinde yer almakta. Dijital özerkliğin zayıflaması, bireylerin özel hayatına saygı hakkını tehdit edebilir ve farklı aktörlerin, grupların ya da şirketlerin bireyleri manipüle etme potansiyelini artırır. Aynı zamanda YZ'nin bu vahşi veri hevesi, Heidegger'in Gestell kavramını gündeme getirmekte ve teknolojinin sınır tanımaz doğasını ve insanı yalnızca bir kullanım nesnesine dönüştürmesini de göstermektedir.

Bu durum aynı zamanda mahremiyet erozyonuyla da ilişkilidir. Mahremiyet erozyonu, yapay zekâ sistemlerinin izinsiz ve şeffaf olmayan veri toplama pratikleriyle, bireylerin özel hayatlarını koruma yeteneğini sistematik olarak zayıflatmasıdır. Mahremiyet erozyonu, "modern çağın görünmez gözetimi" olarak kavramsallaştırılabilir. YZ, bireylerin mahrem hayatlarının gözetimini otomatikleştirerek, sistematikleştirerek ve görünmez kılarak, bireylerin özel alanlarını bir "dijital panoptikon"a dönüştürme riskini barındırmaktadır. YZ'nin bu çerçevesi aynı zamanda bireyi istatistiğe indirgeme ve özgürlük kadar özgünlüğünü kısıtlama riskini de barındırır. Bu minvalde bireylerin sürekli izlendiğini bilmesi kendi davranışlarını sürekli otosansürlemesine ve bireysel duygu durum bozukluklarına da yol açabilir. Ayrıca, toplanan verilerin kötüye kullanımı, kimlik hırsızlığı veya hedefli manipülasyon gibi tehditleri de artırabilir.

Manipülasyonun bir diğer risk boyutunu ise algoritmik önyargılar oluşturmaktadır. Algoritmik önyargı, yapay zekâ sistemlerinin, eğitim veri setlerindeki eğilimler veya geliştiricilerin dünya görüşleri nedeniyle tarafsız olmayan, yanlı veya ayrımcı çıktılar üretmesidir. Grok'un son krizleri algoritmik önyargının somut bir örneğidir. Dolayısıyla YZ'nin tarafsız bir bilgi kaynağı olma yeteneğinin zedelendiği ve toplumsal kutuplaşmayı artırabileceği iddia edilebilir. Hatta birey açısından bakıldığında varlığın varoluşsal derinliğine yönelik bir tehdidi bile doğurabilir. Bu açıdan bakıldığında algoritmik önyargı, aynı zamanda bir insan hakları meselesidir. Geçmişte, medyanın ideolojik propaganda aracı olarak kullanılması gibi, YZ'nin önyargılı çıktıları da bireylerin bilgiye tarafsız erişim hakkını tehdit edebilir. Metaforik bir bakış açısıyla algoritmik önyargı,