Yeni kabusumuz: Derinsahte

Ünlü oyuncu Bruce Willis, geçtiğimiz günlerde önemli bir bilgilendirme yapmıştı. Konuşma, anlama, okuma ve yazma yeteneklerini etkileyen "afazi" hastalığına yakalandığını ve oyunculuğu bıraktığını duyurmuştu. Bu açıklamanın hemen peşinden, Willis'in yüzünün haklarını bir "deepfake" şirketi olan Deepcake'e sattığı haberleri çıkmıştı. Willis'in sözcüsü bu haberleri sonradan yalanlamıştı, fakat oyuncunun yüzünün kullanıldığı bir deepfake videosu sosyal medyada büyük ses getirmişti. Bu aslında bizlere yeni bir uyarıydı. İnternette gördüklerimizin gerçekliğini bir kez daha sorgulamamız için önemli bir mesaj daha veriliyordu. İnternetin son yıllardaki yeni başbelası olduğunun ve karanlık yüzünün hatırlatılmasıydı. Birkaç senedir hayatımıza giren "deepfake" yani Türkçe'ye "derinsahte" diye çevrilen bu teknoloji, ciddi potansiyel tehlikeler içerdiğini daha ilk günden haykırıyordu aslında. Quando'dan İrem Denli'nin derlediği habere göre, deepfake sistemi, büyük veri kümeleri verildiğinde sorunları nasıl çözeceğini kendi kendine öğrenebilen derin öğrenme algoritmaları, tıpkı Willis örneğindeki gibi gerçekçi görünen sahte medya oluşturmak amacıyla video ve dijital içeriklerdeki yüzleri değiştirmek için kullanılıyor. Ancak, deepfake teknolojisi sadece videoyu kapsamıyor. Bu işin bir de videolardan çok daha gerçekçi bir "ses" tarafı var. Ses klonlama veya sentetik ses olarak da bilinen "deepfake voice, bir kişinin sesini yapay zeka ile kolayca taklit edebiliyor. Deepfake videoların gerçek olup olmadığını anlamak biraz dikkatle görece kolayken, deepfake seslerin gerçekliği hakkında bir sonuca varmak çok daha zor oluyor. İnsanların ses ve görüntülerinin taklit edilmesi, doğal olarak pek çok olumsuzluğu beraberinde getiriyor. Kişileri maddi ve manevi olarak dolandırmaktan tutun da, özellikle de ünlüleri küçük düşürmeye kadar pek çok alanda kullanılıyor. Porno yıldızlarının yüzlerini Hollywood ünlüleriyle değiştirdiklerini ve sonrasında sistemin popülerlik kazandığı hala hafızamızda. Dolandırıcılar, artık bir kuruluşun çalışanlarını e-posta yoluyla para transfer etmeye ikna etmektense, şirketin CFO'sunun veya CEO'sunun sesini taklit ettikleri bir telefon görüşmesiyle işlerini daha basitçe görebiliyorlar. Bu yöntemle şantaj yapmak da kolay. Deepfake teknolojisi ile manipüle