Yapay zekâyla ilgili her yeni haber, insanlığın kendisiyle girdiği büyük maceranın bir sonraki sahnesi gibi. Fakat geçtiğimiz günlerde The Guardian'da yayımlanan bir haber, bu maceranın gerilim dozunu biraz artırdı. ABD'li Anthropic şirketi, Claude Code adlı yapay zekâ aracının Çin bağlantılı bir grup tarafından ele geçirilerek neredeyse tamamen otonom hâlde siber saldırılar yürütmek için kullanıldığını açıkladı.
Evet, yanlış duymadınız: Bir yapay zekâ modeli, talimat verilmeden, bir "saldırı zinciri" inşa edecek noktaya kadar götürülmüş durumda. Bu, yalnızca teknoloji dünyasını ilgilendiren bir konu olmaktan çıktı. Siyasetçileri, hukukçuları, öğrencileri, gazetecileri — kısaca hepimizi — ilgilendiren bir kırılma anına dönüştü.
Sınırı aşmak değil, sınırı belirlemek önemli
Aslında yapay zekânın tehdit olarak ele alınması yeni değil. Hatta tam tersine bu tehdit hep gündemde. Ama burada fark yaratan nokta şu: Bu olay, yapay zekânın artık yalnızca bir "araç" olmaktan çıktığını, kendi başına "operasyonel kapasite" üretebildiğini gösteriyor.
Buna rağmen tablo tamamen karanlık da değil. Modelin zaman zaman hatalı çıktılar ürettiği, verileri yanlış sınıflandırdığı da ortaya konuyor. Yani insan unsuru hâlâ devreden çıkmadı. Burada kritik olan şu: Tehlike, yapay zekânın güçlü olması mı yoksa bizim onu denetleyecek, yönetecek iradeyi gösterip göstermeyeceğimiz mi
"Aklını kullanma cesareti göster"
Tam da bu noktada 18. Yüzyıldan insanlığa bir ses yankılanıyor. Immanuel Kant'ın aydınlanmayı açıklarken söylediği o ünlü çağrı: "Sapere aude!" — Aklını kullanma cesareti göster. Kant'ın asıl derdi şuydu: İnsan, kendi aklının rehberliğini üstlenmediği sürece özgürleşemez. Başkalarının yönlendirdiği bir zihin, kendi hayatını yönetemez. Bugün bu çağrı, teknoloji çağında bambaşka bir anlam taşıyor: "Yapay zekâyı yönetmek için önce kendi aklımıza güvenmek zorundayız." Korkarak, geri çekilerek, gelişmeyi yasaklayarak değil; bilinçle, kuralla, ortak akılla. Çünkü teknoloji kendi kendine ahlâk üretemez. Onu ahlaki bir düzleme oturtacak olan yine insandır. Ancak o da ahlâklı insanlarla olur.
Anthropic'nin açıkladığı olay bize aslında iki şeyi aynı anda söylüyor: Evet, yapay zekâ kötü niyetli aktörlerin elinde kullanılabilir ama ama doğru müdahale, şeffaflık ve denetim mekanizmasıyla bu risk yönetilebilir. Demek ki mesele, "Yapay zekâ tehlikelidir" kolaycılığı değil. Mesele, "Tehlike karşısında aklımızı kullanmaya cesaret edecek miyiz" sorusunda düğümleniyor. Gücünden korkup tamamen yasaklamaya çalışmak da, büyüsüne kapılıp sınırsızca serbest bırakmak da iki uç hata olur. Aydınlanma dediğimiz şey tam da bu aşırılıkları reddetmek değil mi Kant'ın ifadesiyle, insanın kendi aklıyla düşünmeye başlaması değil mi

4