Bir dönem yalnızca bilim kurgu filmlerinde gördüğümüz sahneler, artık hayatın tam ortasında.
Birinin sesini, yüzünü, hatta mimiklerini birebir taklit eden yapay zekâ modelleri artık herkesin erişimine açık.
ChatGPT'nin kâşifi OpenAI'ın yeni modeli Sora 2, sadece video üretmiyor; sesiyle, duygusuyla, hareketiyle "gerçek insan hissi" oluşturabiliyor. Gerçek bir insanın sesini ve yüzünü verdiğinizde yapay zekâ olduğu hiçbir şekilde anlaşılamayacak videolar üretebiliyor.
Sora 2'yi şöyle tanımlayabiliriz: Sora 2, fiziksel gerçekçiliği artırılmış, ses ve görüntüyü senkron üretebilen, kullanıcı kimliğini videolara dâhil edebilen, yönlendirilebilir ve güvenli yapay zekâ destekli bir video üretim modeli olarak geliştirildi.
Bu gelişme, sinema ve eğitim gibi alanlarda büyük bir devrim olabilir.
Ancak aynı teknoloji, kötü niyetli ellerde kimliğin, güvenin ve gerçeğin sınırlarını tehlikeli biçimde bulanıklaştırma potansiyeli taşıyor.Sora 2'nin getirdiği yeni tehditler
Sora 2, sadece metinden video değil; ses, mimik ve duyguyla senkronize "insan" benzeri sahneler üretebiliyor. Bu yenilikler, beraberinde aşağıdaki riskleri de getiriyor:
1. Ses Klonlama Dolandırıcılığı:
Kısa bir ses kaydıyla bir kişinin ses tonu, vurgusu ve konuşma tarzı birebir kopyalanabiliyor.
Dolandırıcılar bu sesi kullanarak bankaları, aile bireylerini ya da çalışanları kandırabiliyor.
2. Yüz ve Görüntü Taklidi (Deepfake Kimlik Hırsızlığı):
Sora 2'nin görüntü kalitesi o kadar yüksek ki, bir kişinin yüzü başka bir bedene monte edildiğinde sahte olduğu neredeyse anlaşılamıyor. Bu, hem itibar suikastı hem de psikolojik şantaj riskini doğuruyor.
3. Sahte Kurumsal Talimatlar:
Bir yöneticinin yüzü ve sesi taklit edilerek, çalışanlara "acil ödeme", "transfer" veya "belge gönderimi" talimatı verilebiliyor. Bu tür saldırılar özellikle şirket içi güven zincirini hedef alıyor.
4. Siyasi Manipülasyon ve Dezenformasyon:
Siyasetçilerin sahte konuşmaları veya açıklamaları üretilip sosyal medyada dolaşıma sokulabiliyor. Bu, kamuoyunu yönlendirme ve seçim süreçlerini etkileme riski taşıyor.
5. Duygusal Dolandırıcılıklar:
Bir kişi, sevdiği birinin sesini veya yüzünü kullanarak güven kazanabilir. Bu durum, özellikle yaşlı bireyleri veya dijital farkındalığı düşük kullanıcıları hedef alan yeni dolandırıcılık türlerinin önünü açıyor.
6. İtibar ve Mahremiyet İhlali:
Kişilerin rızası olmadan oluşturulan sahte görüntüler, özel hayatın gizliliğini ihlal ediyor. Özellikle gençler ve kamuya açık kişilikler için bu durum ciddi psikolojik sonuçlar doğurabiliyor.Yeni güvenlik kültürüne ihtiyacımız var
Artık dijital güvenlik, yalnızca şifrelerle korunmuyor.
Bir bireyin sesi, yüzü, hatta konuşma tarzı bile kimliğinin bir parçası hâline geldi.
Bu nedenle hem bireylerin hem kurumların bilinç düzeyini yükseltmesi şart.
Bireyler İçin:
● Ses veya görüntü örneklerini herkese açık platformlarda paylaşmamak, (Son iki köşe yazım bu maddeyle ilgiliydi, düzenli okuyucularım hatırlayacaktır)
● Para veya bilgi isteyen çağrılarda ikinci kanaldan teyit almak, yani arayıp belli etmeden parolalar sorup, gerçekten o olduğunu anlamak.
● Sosyal medya gizlilik ayarlarını sıkı tutmak,
● Görsel doğrulama araçlarını (örneğin Google Lens, Reality Defender vb.) kullanmak.
Kurumlar İçin:
● Görsel veya sesli kimlik doğrulamaya ikinci güvenlik katmanı eklemek,
● Çalışanları deepfake (yüz klonlama) ve ses klonlama saldırılarına karşı eğitmek,
● Resmî iletişim kanallarında şüpheli içerikleri doğrulama protokolleri oluşturmak,