Yazar, yapay zekâ tespit araçlarının yalnızca teknik sorunlar değil, temel epistemik sorunlar içerdiğini ileri sürmektedir. Üretken modellerin olasılık dağılımları üzerinden çalıştığı ve doğrulanabilir bir referansa sahip olmadığı için, onları tespit etmeye çalışan araçlar da aynı istatistiksel zeminde kalarak asla kesin kanıt sağlayamayacaktır. Peki akademik dürüstlüğü korumak için, güvene dayalı bir sistem mi yoksa daha rafine detektörler mi gerekir?
Üretken yapay zekâ yaygınlaştıkça özellikle eğitimde ve akademide üretilen içeriğin failinin kim olduğu sorusunun cevabını bulmaya yönelik tartışmalar giderek artmaktadır. Aynı zamanda bu amaca yönelik ölçme ve değerlendirme ve tespitlere yönelik detektörler giderek yaygınlaşmakta, ancak bu detektörlerin ne derece güvenilir olabileceği yeni tartışmaları tetiklemektedir. Özellikle yanlış pozitif (yapay zekâ kullanılmamasına rağmen detektörlerin yanlış olarak yapay zekânın kullanıldığı yönünde sonuç üretmesi) oranlarının ürettiği olumsuz maliyet oldukça yüksektir. Diğer taraftan, yanlış negatif (yapay zekâ kullanılmasına rağmen detektörlerin yanlış olarak yapay zekânın kullanılmadığı yönünde sonuç üretmesi) oranları da sahtekârlığı ödüllendirmektedir. İki aşırı uç arasında salınan detektörlerin teknik doğruluğunu iyileştirmenin ötesinde üretken yapay zekânın doğasına daha yakından bakmak bu tartışmaları daha sağlıklı bir zemine taşıyacaktır.
Üretken yapay zekânın çalışma biçimi ile onu tespit etmeye çalışan araçların mantığı aslında aynı epistemik zemini paylaşmaktadır. Bu zeminin doğrulamayı mümkün kılacak bir referansı yoktur. Üretken modeller, metni doğruluk üzerinden değil olasılık dağılımları üzerinden üretmektedir. Üretilen içeriklerde sıklıkla karşılaşılan yanlılıklar ve yapay zekanın halüsinasyon davranışının sonuçları da bu zeminin yokluğu nedeniyle ortaya çıkmaktadır. Çünkü modelin amacı bir referans uzayı ile gerçek olanı veya doğru olanı değil, eğitim verisindeki örüntülere en çok uyanı üretmektedir. Bu durumda ortaya çıkan içerik, kendi başına doğrulanmış bir bilgi değildir. Zaten, ürettiği yanlılıklar ve halüsinasyon davranışının sonuçları kendisi tarafından değil, insanlar tarafından tespit edilmektedir. Bir başka deyişle düzeltme, modelin içinden değil, model dışındaki bir doğrulama mekanizmasından gelmektedir.
Yapay zekâ tespit araçları da bu içeriklerin yüzeysel özelliklerine bakarak ters yönde bir çıkarım yapmaya çalışmakta ve metnin kökenini yine istatistiksel örüntüler üzerinden tahmin etmektedir. Yukarda vurguladığımız gibi üretim sürecinin kendisi doğrulanabilir bir referans çerçevesine göre çalışmıyorsa, bu üretimi sonradan tespit etmeye çalışan araçların da başvurabileceği bağımsız bir doğrulama zemini olamaz. Çünkü tespit edilmeye çalışılan şey, ontolojik bir iz değil, sadece olasılıksal bir benzerliktir. Bu nedenle bir tür epistemik kapanma ortaya çıkmaktadır. Model içerik üretirken, tespit aracı bu içeriğin sadece modele ait olduğunun ihtimal dâhilinde olduğunu söyleyebilir. Ancak bu ihtimalli çıkarımını kesin olarak doğrulayacak model-dışı bir kanıt alanı yoktur. Bu nedenle tespit aracı, aslında üretim mantığının kendisini dolaylı olarak yeniden okumaktan ibarettir. Bu da doğrulama değil, aynı sistem içinde yapılan ikinci dereceden bir tahmindir.
Hal böyleyken, yapay zekâ tespit araçlarının eğitimde ve akademide kullanımına ilişkin tartışmalar, genellikle bu araçların teknik yeterliliği üzerinden yürütülmektedir. Yeni bir makale de, yukarda genel çerçevesine değindiğimiz meselenin yalnızca teknik bir sorun olmadığını, daha temel bir kavramsal ve yöntemsel problem içerdiğini ortaya koymaktadır (Bassett vd. Heads we win, tails you lose: AI detectors in education, Journal of Higher Education Policy and Management, 2026). Makalenin vurguladığı gibi yapay zekâ tespitine yönelik detektörler, doğrulanabilir kanıtlara değil, olasılıksal tahminlere dayalı çalışmaktadır. Bu tahminler ise gerçek dünya koşullarında bağımsız biçimde doğrulanamaz. Bir metnin gerçekten yapay zekâ tarafından mı yoksa insan tarafından mı üretildiğini kesin olarak belirleyebilecek dışsal bir referans noktası bulunmadığından, bu araçların sunduğu sonuçlar hiçbir zaman kesinlik ifade etmeyecektir. Bu durum, özellikle akademik dürüstlük soruşturmalarında gerekli olan kanıt standardı açısından ciddi bir sorun teşkil etmektedir.
Makale, yapay zekâ tespit araçlarının dayandığı temel varsayımları da sorgulamaktadır. Bu araçlar, insan ve yapay zekâ tarafından üretilmiş metinlerin dilsel olarak ayrıştırılabileceği (ikili sınıflandırma) kabulü üzerine kuruludur. Ancak pratikte bu ayrımın net olmadığı, hatta giderek daha da belirsiz hâle geldiği görülmektedir. Metinlerin ya tamamen insan ya da tamamen yapay zekâ tarafından üretildiği varsayımı, günümüz yazım pratiklerini yansıtmamaktadır. Yapay zekâ sıklıkla fikir üretme, taslak oluşturma ya da düzenleme gibi farklı aşamalarda kullanmakta ve ortaya çıkan metinler hibrit bir karakter taşımaktadır. Bu akışkan yapı, yapay zekâ kullanımını keskin kategorilere ayırmayı giderek zorlaştırmaktadır. Bu nedenle, yapay zekâ tespiti yalnızca teknik olarak yetersiz değil, aynı zamanda bu akışkanlığın tersine bir yaklaşım olarak da sorunludur.
Dolayısıyla, birden fazla tespit aracının kullanılması, dilsel göstergelerin aranması ya da öğrenci veya akademisyen metinlerinin yapay zekâ çıktılarıyla karşılaştırılması gibi yöntemler, bağımsız doğrulama sağlamamaktadır. Aksine, bu yöntemler çoğu zaman doğrulama yanlılığını güçlendirmektedir. Önceden oluşmuş bir şüphe, seçici dikkat yoluyla desteklenirken karşıt kanıtlar göz ardı edilmektedir. Bu süreçte, değerlendirme nesnel bir inceleme olmaktan çıkarak başlangıçtaki varsayımı teyit etmeye yönelik bir arayışa dönüşmektedir. Böyle bir yaklaşım, akademik dürüstlük süreçlerinin güvenilirliğini de zedelemektedir.

5