Yapay zeka aklımızla dalga geçiyor! Balina sahibini değil milyonları 'yedi'

Sosyal medya sahte videoların istilası altında. En son bomba ise gösteri esnasında bir balinanın eğitmenini yutma videosuydu. Bu içeriğin günler sonra yapay zekanın ürünü olduğu ortaya çıktı. Bunun gibi her gün binlerce uydurma videoyla insanlar kandırılıyor. Birileri bu içerikler üzerinden büyük paralar kazanırken, toplumun empati kasları köreliyor, olaylara karşı duyarsızlık baş gösteriyor ve gerçeklik algısı hızla eriyor.

Son günlerde Instagram, TikTok, Facebook, X gibi sosyal medya platformlarında hızla yayılan bir balina videosu milyonlarca kişiyi dehşete düşürmüştü. Söz konusu video 23 yaşındaki balina eğitmeni Jessica Radcliffe'in bir katil balina (Orka) tarafından saldırıya uğrayarak hayatını kaybettiğini gösteriyordu. Ancak yapılan incelemeler, bu videonun ve olaya dair fotoğrafların tamamen bir yapay zeka kurgusu olduğunu ortaya çıkardı.

Haberin Devamı

TEHLİKELİ BİR AKIM

Aslında bu görüntü, 'duygusal manipülasyon' adı verilen ve insanların duygularını sömürerek hızla yayılan tehlikeli akımın yalnızca küçük bir parçası. Her gün yüzlerce benzer sahte video, izlenme rekorları kırarken insanların neyin gerçek neyin kurgu olduğunu ayırt etmesini zorlaştırıyor. Videolar, özellikle insanların en çok duyarlı oldukları yangın, kavga, vahşi doğadaki saldırılar gibi içerikler üzerine kurgulanıyor. Uzmanlara göre bu da toplumun gerçeklik algısını adım adım yok ediyor.

BEYİN YIKIYORLAR

Uzmanlara göre sahte içerikler artık yalnızca eğlence veya şaka amaçlı olarak sunulmuyor. Kimileri, izleyicinin duygularını sömürerek milyonlarca liralık reklam geliri elde ediyor. Kimileri ise daha tehlikeli bir amaçla, insanları şok görüntülere alıştırarak toplumsal hassasiyetleri köreltiyor. Öyle ki bir zamanlar toplumu ayağa kaldıran olaylar, artık "Acaba sahte mi" şüphesiyle karşılanıyor. İşte bu durum, gerçek bir acı karşısında bile seyirci kalmamıza neden oluyor. Özetle tehlike hızla büyüyor.

ÜNLÜ İSİMLERİ KULLANIYORLAR

Sahte videoların en tehlikeli kullanım alanlarından biri de elbette dolandırıcılık. Özellikle Selçuk Bayraktar gibi kamuoyunda güven duyulan ve tanınmış isimlerin yüzü ve sesi, yapay zeka teknolojisiyle kopyalanarak sahte yatırım çağrıları için kullanılıyor. Bu videolar, kişilerin ağzından 'kolay yoldan zengin olma', 'yeni kripto para fırsatı' gibi vaatlerde bulunuyor ve masum vatandaşlar sahte sitelere yönlendirilerek paraları çalınıyor. Yapay zekâ ile üretilen bu 'deepfake' videolar o kadar gerçekçi ki insanlar dolandırıldıklarını anlayana kadar iş işten geçmiş oluyor. O nedenle hiçbir ünlü veya güvenilir kurumun, sosyal medyadan kişisel yatırım tavsiyeleri vermeyeceğini akıldan çıkarmamak gerekiyor.

Haberin Devamı

TEPKİSİZLİK BAŞLADI

Sahte trajedi videolarının toplumsal bir travmaya sebep olduğuna dikkat çeken Psikolog Dr. Feyza Çelen, "Her gün maruz kaldığımız bu yalan trajediler, aslında vicdanımızı sanal bir şekilde 'doyuruyor'. Bir tıkla paylaştığımız bir yardım çağrısı, bize 'görevimi yaptım' hissi veriyor. Oysa bu, gerçek bir olaya karşı harekete geçme potansiyelimizi yavaş yavaş öldürüyor. İnsanlar, gerçek bir felaket gördüğünde bile 'yine mi sahte' diye düşünerek tepkisiz kalabiliyor. Bu, sadece empati kaybı değil, aynı zamanda toplumsal belleğin ve duygusal zekanın silinmesi anlamına geliyor" dedi.

Haberin Devamı

CİDDİ CEZALARI VAR

Avukat Devrim Nur Kayabalı ise sahte videolarla insanları kandırarak haksız kazanç elde etmenin, dolandırıcılık suçu oluşturduğunu söyledi. Kayabalı, şu değerlendirmeyi yaptı: "Ayrıca, bu videolar bir kişinin onur, şeref ve saygınlığını zedeleme amacı taşıyorsa, hakaret ve iftira suçları devreye girer. Sahte bir olayı gerçekmiş gibi göstererek halkı korku ve paniğe sevk etmek de halkı yanıltma suçunun kapsamına girer. Teknolojik imkanlar sayesinde şüphelilerin kimlikleri, IP adresleri ve dijital ayak izleri takip edilerek belirlenebiliyor. Yasal yaptırımlar, suçun niteliğine göre para cezalarından hapis cezalarına kadar değişebilir. Özellikle 'deepfake' gibi teknolojilerle kişisel verilerin hukuka aykırı şekilde kullanılması durumunda, cezalar çok daha ağır olabilir."