Yapay Zekâ Araçları Nöroplastisiteyi Etkiliyor

Yapay zekâ araçları, özellikle ChatGPT gibi üretken yapay zekâ araçları artık her yaştan insanın yaygın kullandığı araçlar oldu ve giderek günlük yaşamın vazgeçilmezleri arasında yer almaya başladı. Sorun da tam bu noktada ortaya çıktı. Yapay zekâ tartışmalarının büyük bölümü hâlâ araçların kapasitesi, doğruluk oranları ya da tespit edilebilirliği etrafında dönse de asıl kırılma, daha derinde, üretimin ve kararın failinin kim olduğu sorusunda yatmaktadır. Büyük dil modelleriyle (LLM'ler) birlikte yalnızca bilgi üretimi değil, anlamlandırma ve karar süreçleri de sessizce dışsallaştırılmaktadır.

Bu durum, teknik bir verimlilik meselesinden ziyade, insanın bilişsel, ahlaki ve varoluşsal konumunu ilgilendiren daha köklü bir dönüşüme işaret etmektedir. Öncelikle sorun üretilenin failinin giderek insandan çok makine olması ve anlam üretme ve sorumluluğun insandan uzaklaşması iken ikincisi bu sorunla ilgili olarak insanın bilişsel süreçlerinin bu kaymadan etkilenerek nihayetinde insanın eleştirel düşünme becerilerinin de zayıflamasıdır. Dolayısıyla, bu araçlar pasif bir biçimde kullanıldığında görünürde insan failin konumunu zayıflatırken ayrıca görünmez bir biçimde de beyin fonksiyonlarını ve sinaptik bağlantı yapısını etkilemektedir. Son dönemde yapılan çalışmalar aslında bu hasarın boyutlarını tespite yöneliktir.

Bir taraftan hasar tespitine yönelik çalışmalar devam ederken diğer taraftan da bu hasarı onarmaya yönelik yeni yaklaşımlar geliştirilmektedir. Bu noktada, insanın bu araçları kullanmada pasif kalması yerine daha aktif olmasını sağlayacak yaklaşımlar geliştirilmeye çalışılmaktadır. Örneğin eğitimde ölçme ve değerlendirme süreçlerinde, öğrencinin öğrenme süreçlerinde asıl failin kendisi olduğunu göstermesini sağlayacak sözlü değerlendirmelerin veya grup çalışmalarının yeniden gündeme getirilmesi bu yaklaşımın bir sonucudur. Bu kapsamda yeni bir çalışmada da sorun nöroplastisite bağlamında ele alınmakta ve sorumlu kullanımı merkeze alan bir yaklaşım önerilmektedir (The brain side of human-AI interactions in the long-term: the "3R principle", npj Artificial Intelligence, 2:15, 2026).

Nöroplastisite, beynin yeni sinirsel bağlantılar oluşturarak sinaptik etkinliği değiştirme ve sinir ağlarını yeniden düzenleme yönündeki yeteneği olup bu araçların pasif bir şekilde kullanımı beynin bu yeteneğini doğrudan etkilemektedir. Dolayısıyla, sorunun nöroplastisite boyutu bu araçların oluşturduğu risklerin yalnızca epistemik, etik ya da pedagojik değil, aynı zamanda biyolojik de olduğunu göstermektedir. Beyinde sinaptik bağlantılar, "kullan ya da kaybet" ilkesine göre, etkinliğe/aktif olmaya ve zamana bağlı olarak şekillenmektedir. Yapay zekâ araçları ile kurulan pasif ve eleştirel olmayan etkileşim biçimleri, karar verme, sorgulama ve anlam üretme gibi yüksek düzeyli bilişsel işlevleri bu araçlar nedeniyle dışsallaştırdığı için sinaptik bağlantıların zayıflaması kaçınılmaz hâle gelmektedir. Makalenin işaret ettiği gibi, bu araçların pasif kullanılmasıyla bilişsel yükün dışsallaştırılması, sinaptik düzeyde uzun dönemli depresyonu ve ağ düzeyinde işlevsel bağlantı kaybını tetiklemektedir. Buna karşılık, yapay zekâyı sorgulayan, onunla müzakere eden ve birlikte üretim yapan aktif bir tutum, nöroplastisiteyi bu olumsuz durumdan korumaktadır.

Makalenin yazarları bu bağlamda nöroplastisteyi koruyacak şekilde bu araçların nasıl kullanılabileceğine yönelik 3R (Results/Sonuçlar, Responses/Tepkiler ve Responsibility/Sorumluluk) yaklaşımını önermektedir. Sonuçlar yapay zekânın ürettiği çıktılar olup doğru ya da yanlış olabilirler ama kendi başlarına anlam taşımazlar. Çünkü yapay zekâ değer, niyet ve amaç sahibi değildir. Tepkiler ise insanın bu sonuçları yorumlayarak, bağlama yerleştirerek ve etkilerini tartarak verdiği karşılıklardır. Dolayısıyla tepki, yalnızca bir çıktı değil, anlamlı ve sonuçları olan bir eyleme karşılık gelmektedir. Sorumluluk ise sonucun nasıl bir tepkiye dönüştürüleceğine karar verme yükümlülüğü olup ahlaki, toplumsal ve varoluşsal bir zeminde gerçekleşmektedir. Kısacası, yazarların önerdiği 3R yaklaşımı, yapay zekânın ürettiği sonuçları sorgulamadan kabul etmek yerine, insanın bu sonuçları anlamlandırmasını ve ortaya çıkan eylemin sorumluluğunu üstlenmesini önermektedir.