Yargının 'sessiz' dönüşümü

Mahkemede kararı hala hakim veriyor sanıyoruz ama dosyayı özetleyen, emsal seçen, çerçeveyi kuran yazılım değil mi gerçekten?

Özet Bu özet koseyazarioku.com tarafından üretilmiştir

Yargı sistemine giren yapay zeka, doğrudan karar vermese de dosyanın omurgasını insan hakimin görmeden önce şekillendiriyor. Yazar, Hindistan'daki 55 milyon bekleyen dava gibi sistem yükünü hızlı çözmek için algoritmaların kullanılmasının, aslında adaletin mantığını giderek yazılıma devrettiğini savunuyor. Peki mahkemenin karar verme yetkisi gerçekten insanda kalıyor mu, yoksa tercih ve çerçevesi yazılımca belirlenmiş bir karar mı verilmiş oluyor?

Bir gün mahkemeye çıkmak zorunda kalabiliriz! Bu, istatistiksel bir gerçek. Ama asıl mesele mahkemeye çıkmak değil biz daha kendimizi savunmadan hakkımızda bir kanaatin oluşmuş olması! Daha dosyamız açılmadan önce bir sistem bizi "riskli" olarak işaretlemiş olabilir.

Bu cümle bilim kurgu gibi geliyor. Oysa değil!

Bugün tartışmamız gereken soru "robot hakimler gelecek mi" değil. Daha rahatsız edici soru şu: Karar hala insanınmış gibi görünürken, adaletin iskeletini yazılım mı kuruyor

Filipinler Yüksek Mahkemesi'nin yayımladığı çerçeve de bu boşluğu açıkça kabul ediyor:

Yapay zeka kullanılabilir, ama yalnızca destek aracı olarak. Kararın sorumluluğu insanda kalmalı. Şimdi bu uyarı size 'Eee ne olmuş hem Filipinler nere bura nere" dedirtebilir ama bu tür uyarıların varlığı bile aslında şu gerçeği ele veriyor, bu teknoloji çoktan sisteme girdi.

Bu dönüşümün arkasında romantik bir teknoloji vizyonu yok. Daha basit bir sebep var; yük!

Hindistan'da bekleyen dava sayısı 2026 itibarıyla 55 milyonu aşmış durumda. Bu ölçekte bir yargı sisteminde hız, neredeyse bir zorunluluk. Yapay zeka bu yüzden 'çözüm' gibi sunuluyor.

Ama burada kritik bir ayrım var, hız ile adalet aynı şey değil. Yanlış çalışan bir sistemi hızlandırmak daha iyi bir sonuç üretmiyor, hatta çoğu kez hatayı hızlı çoğaltıyor.

ÜÇ KATMANLI DÖNÜŞÜM

Özellikle güvenlik, teknoloji ve kamu politikası kesişiminde çalışan etkili düşünce kuruluşlarından, Washington merkezli Stimson Center'ın 2026 tarihli çalışması, yargıdaki yapay zeka kullanımını üç katmanda inceliyor. Bu ayrım, meselenin neden bu kadar kritik olduğunu anlamak için önemli.

Birinci katman en masum olanı, bürokratik otomasyon. Konuşmanın yazıya dökülmesi, belgelerin sınıflandırılması, metin özetleme. Ama burada bile kritik bir güç oluşuyor. Bir dosyayı kim özetliyorsa, davanın omurgasını o kuruyor.

İkinci katman öneri sistemleri. Arjantin'de kullanılan Prometea gibi sistemler, işleri hızlandırarak yargıdaki verimliliği üç kata kadar artırabiliyor. Kolombiya'da kullanılan PretorIA adlı yapay zeka ise hangi dosyaların öne çıkması gerektiğini belirliyor. Tamam, karar hala insanın ama ilk bakışın yönünü artık yazılım belirliyor. Bir dosyanın ilk çerçevesi kurulduktan sonra da geri kalanı çoğu zaman o çerçevenin içinde ilerliyor.

Üçüncü katman ise en tartışmalı olanı; yarı-karar verici sistemler.

Çin'in Shenzhen kentinde bir mahkeme, büyük dil modelini doğrudan dava sürecine entegre etti.

Sistem dosyayı özetliyor, tartışmalı noktaları çıkarıyor, soru öneriyor ve hatta karar gerekçesi taslağı hazırlıyor. Son imza hakime ait. Ama düşüncenin çerçevesi artık makineden çıkıyor.

KARA KUTU ADALETİ

Yargının yazılımla tanışması yeni değil. ABD'de bazı eyaletlerde kullanılan COMPAS gibi sistemler, üretken yapay zeka çağı başlamadan önce bile adaletin içine girmişti. COMPAS "konuşan" bir yapay zeka değil, "puan veren" bir algoritma.

2016'da Wisconsin'de görülen Loomis davası da COMPAS nedeniyle çok tartışılmıştı. COMPAS, sanıkların yeniden suç işleme ihtimalini ölçmek için kullanılan bir risk puanlama yazılımı. Ancak kritik bir fark var. Bu sistem kamuya ait değil, özel bir şirket tarafından geliştiriliyor. Yani hangi verileri kullandığı ve bu puanı nasıl hesapladığı tam olarak bilinmiyor.

Eric Loomis'in davasında sorun tam da burada ortaya çıktı. Mahkeme, onun "yüksek riskli" olduğuna dair COMPAS skorunu gördü ve bunu ceza sürecinde dikkate aldı. Ancak Loomis ve avukatı, bu sonucun nasıl üretildiğini inceleyemedi. Çünkü algoritma şirketin ticari sırrıydı.

Ortaya tuhaf bir durum çıktı. Mahkeme risk puanını gördü bir ama o sayının arkasındaki mantık, savunma tarafından incelenemedi. Sanığın avukatları itiraz etse de Wisconsin Yüksek Mahkemesi, 2016'daki kararında bu tür sistemlerin tamamen yasaklanmasına gitmedi. Aksine, kullanılabileceğini söyledi. Ama açık bir sınır çizdi. Bu puanlar tek başına belirleyici olamaz ve hakimler bu sistemlerin sınırlamalarının farkında olmalı.

Ancak bu karar tartışmayı bitirmedi. Çünkü mesele sadece Loomis davası değil. COMPAS ve benzeri risk değerlendirme araçları bugün hala ABD'nin farklı eyaletlerinde, tutuklama, kefalet ve ceza süreçlerinde kullanılmaya devam ediyor. Yani sorun geçmişte kalmış bir teknik detay değil, adalet sistemine yıllar önce giren bu "kara kutu" mantığı, hala sistemin içinde çalışıyor.

MAHKEME SALONUNDA YENİ GERÇEKLİK

Bu dönüşüm artık teoride kalmıyor. Geçen yılın Mayıs ayında Arizona'da görülen bir ceza duruşmasında, alışılmışın dışında bir an yaşandı. Mahkeme salonunda söz alan kişi 'hayatta değildi'. 2021'de kavgada hayatını kaybeden Christopher Pelkey'nin ailesi, onun yapay zeka ile oluşturulmuş bir avatarını mahkemede konuşturdu. Ekranda beliren yüz, sanığa doğrudan hitap etti; affetmekten söz etti, başka bir hayatta arkadaş olabileceklerini falan söyledi.

Bu bir bilim kurgu sahnesi değildi. Ve daha önemlisi, mahkeme bunu tamamen dışlamadı. Yargıç, videodan etkilendiğini açıkça ifade etti ve sanığa ceza verirken bu görüntüleri göz önüne aldı. Bir mahkeme, artık gerçek bir insanın sesiyle değil, onun simülasyonuyla da karşı karşıya kalabilir mi İşte asıl soru bu!

Mart 2026'da Londra'da görülen bir davada ise sorun bir görüntü değil, bir sesti. Tanık kürsüsündeki iş insanının cevapları tuhaf biçimde gecikiyordu. Yargıç duraksamaları fark etti.. Kısa süre sonra gerçek ortaya çıktı. Tanık, akıllı gözlük ve telefon aracılığıyla dışarıdan, gerçek zamanlı olarak yönlendiriliyordu. Mahkeme bu ifadeyi güvenilmez saydı.

Ama mesele sadece bir kişinin hile yapması değildi. İlk kez bu kadar açık biçimde şu ihtimalle karşılaşıldı: Bir tanık konuşuyor olabilir, ama o sözler gerçekten ona ait olmayabilir.

Bu iki örnek, birbirinden tamamen farklı gibi görünüyor.

Birinde ölmüş bir insan "konuşturuluyor."

Diğerinde yaşayan bir insan "yönlendiriliyor."

Ama aslında aynı yere çıkıyorlar. Artık mesele sadece verinin doğruluğu değil. Gerçekliğin kendisi tartışmalı hale geliyor. Ve belki de yargı sisteminin önüne gelen en zor soru şu; mahkeme, karşısındaki şeyin gerçekten "insana" ait olduğundan nasıl emin olacak

TÜRKİYE'DE DURUM NE

Türkiye'de resmi yaklaşım, yargılama faaliyetlerini destekleyen sistemlerde kullanılması yönünde ilerliyor; 2025-2029 Yargı Reformu Stratejisi'nde belge analizi, eksik bilgi-belge tespiti ve yapay zeka temelli öneri sistemleri açıkça yer alıyor.

Yani hiçbir yerde mesele robot hakim değil mesele kararın çevresinin giderek yazılıma devredilmesi!

YENİ BİR GERÇEKLİK

Bu noktada aklıma 2002 yapımı"Minority Report" filmi geldi. Steven Spielberg'ün yönettiği film, suç daha işlenmeden insanların yakalandığı bir sistemi anlatıyordu. "Precrime" adı verilen bu düzende, gelecek görülüyor ve suç henüz gerçekleşmeden engelleniyordu.

Bugünkü sistem öyle çalışmıyor, kimse geleceği görmüyor daha basit bir şey yapılıyor; geçmişe bakılıyor. Geçmişteki suç kayıtları, sosyo-ekonomik veriler, davranış kalıpları...

Bütün bunlar toplanıyor, sonra içlerinden bir şeyler çekiliyor; önyargı, eşitsizlik, hata ve bunlar matematik gibi sunuluyor.

Son günlerde Avrupa Merkez Bankası'nın bankalarla yaptığı görüşmelerde, gelişmiş yapay zeka modellerinin doğrudan sistemik risk olarak ele alınmaya başlanması ise dikkat çekici. Bu önemli bir eşik. Çünkü ilk kez algoritmalar yalnızca araç değil, potansiyel tehdit altyapısı olarak değerlendiriliyor. Bu yaklaşımın yargı sistemlerine de yansıması kaçınılmaz.

ADALETİN AKLINI KİME BIRAKIYORUZ

Bugün hala kararın insan tarafından verildiğini düşünüyoruz. Ama şu soruları sormadan bu cümle eksik kalıyor. Dosyanızı kim özetliyor Hangi emsali öne çıkarıyor Hangi cümleyi önemli sayıyor Eğer bu cevapların çoğu artık algoritmaysa, mesele değişiyor.