Teknoloji ile Dolandırıcılık da Artık Maalesef Daha Kolay!

Deepfake ve ses taklitleri ile eğlenmek, pazarlamada, eğitimde kullanmak tamam da… Ya sahtekarlık?

Teknoloji ile Dolandırıcılık da Artık Maalesef Daha Kolay!
12 Mart 2023 - 14:19

Bu yazıyı kuşkusuz kötü niyetli insanlara yol göstermek ya da toplumda korku yaratmak için yazmıyorum. Zaten çoğunlukta adeta teknoloji alerjisi var… Her fırsatta “teknolojiden maksimumda yararlanmalıyız!” diyen biri olarak en son isteyeceğim şey bu olur. Yalnızca daha fazla insanın, toplumun bu olasılıklar konusundaki farkındalığı, bilgisi yükselsin. Uyanık olsun. Teknoloji, hukuk, sosyal, eğitim gibi alanlarda çalışan bireyler, uzmanlar konuya odaklansın. Önleyici, caydırıcı önlemler ve düzenlemeler konusunda çalışsın. Onlar da en az dolandırıcılar kadar hatta onlardan daha hızlı olup daha inovatif çözümler üretsinler diye yazıyorum. 

Bir de çoluğumuzu çocuğumuzu, büyüklerimizi, yaşlılarımızı uyaralım diye paylaşıyorum tabii.  Yazdıklarım tıpkı bir neslin işittiği şu tembihler gibi düşünülmeli; “gazoz açık gelirse içme. Nuri Alço’nun canlandırdığı kötü karakterler gibi insanlar gazozuna ilaç koymuş olabilirler. Sana her fenalığı yapabilirler. Gazoz mutlaka önünde açılsın” ya da “annecim, babacım, dedeciğim aman boş kağıtlara falan imza atmayın. Malınızı mülkünüzü satarlar, paranızı çalarlar, vekalet vermiş olursunuz, vb.” Lütfen bu yazıyı, bu konuları çevrenizle paylaşın.

Deepfake

Deepfake

Çünkü iyi insanlar harıl harıl sağlık, eğitim, eğlence, sosyal hayat, ticaret, iş dünyası, vb. konularında teknoloji ve bilimden yararlanmaya çalışırken dolandırıcılar da boş durmuyor. Aslında iyi şeyler için geliştirilen teknolojileri kötü amaçlar için kullanmayı çabucak öğreniyorlar. Son zamanlarda ve özellikle yapay zekâ yardımı ile şimdilik daha çok ses kopyalayıp insanları soymak için teknolojiden yararlanıyorlar. İlaveten deepfake ciddi bir tehdit olarak köşeden bakıyor, sırasını bekliyor. Sahtekâr, dolandırıcı ve hırsızlar yeni maymuncukları olarak artık teknolojiyi görüyorlar. 

Yorumlarda, aşağıdaki konularda yapacağınız katkılarınızla konuya daha da ciddi ve hızlı eğilinmesi konusunda yardımcı olabilirsiniz. 

Yapay zekâ etkisi 

'Deepfake' denilen, yapay zekâ teknolojisi kullanılarak oluşturulan sahte videolar veya ses kayıtlarıyla yapılabilecekler hızla gelişiyor. Erişim kolaylaşıyor. Bu tip teknolojilere ulaşmanın maliyetleri düşüyor. Konu henüz daha çok yurt dışında, Uzak Doğu, Çin, Amerika, Rusya gibi teknoloji konusunda hızlı gelişen ülkelerde yaygınlaşıyor. Ancak yapay zekâ ile ses ve video görsellerin değiştirilmesi, kısacası Deepfake daha kolay-yaygın kullanılabildiğinde mesele çok daha problemli bir hale gelecek. Hukuksal, teknik düzenlemeler, çözümler üretilinceye kadar dikkatli olmakta fayda var. Malum özellikle ülkemiz insanları bu tip konularda hızlı adaptasyon konusunda hayli becerikli. 

Aşağıda daha önce sosyal medyada paylaştığım bazı deepfake örnekleri var. Göz atınca konu nerelere varabilir, hemen göreceksiniz.

 

Son zamanlarda yurt dışında yaşanan bazı örnekler:

1) Torun, nene ve dedesini arıyor. Kaçırıldığını, para hazır olduğunda adres vermek için tekrar arayacağını belirtiyor. “Telefonlarınız dinleniyor, eviniz gözleniyor, birine haber verirseniz, polisi ararsanız ve parayı belirtilecek yere bırakmazsanız beni öldürecekler.”

Dikkat: Bankacılar dikkatli olmalı, yaşı ilerideki müşterilerinin toplu (ve özellikle de acele ve telaş içindeyseler) para çekimlerinde mutlaka onları sorgulamalı, uyarmalı önlem almalılar. Komşular dikkat etmeli. Yaşlılar sıra dışı davranışlar sergilerlerse kandırılmış, korkutulmuş olabilirler. Evlatlarına, yakınlarına, polise haber verilmeli. 

2) Bir avukat, bürokrat, güçlü bir profil (sahte ses ama ailenin tanıdığı birinin sesi) arıyor. Kızınız/oğlunuz kaza yapmış. Önemli bir şahsiyetin ölümüne sebep olmuş veya olaya karışmış. Sizden ve duyulmasından, karşı tarafın onu bulmasından, kendisine bir şey yapılmasından korktuğu için kaçmış, beni aradı. Şimdi iyi, güvenli bir yerde. Ben yanındayım. Kendisi ile de sizi konuşturuyorum (yine sahte yapay zekâ ses aynen oğul ya da kızları gibi anne-baba ile konuşuyor). Ancak hızlı ve çok gizli hareket etmemiz lazım. Çok acilen kefalet, hukuk masrafları, sus payı, hukuk masrafları için para gerekiyor.

Onlarca, yüzlerce örnek türetilebilir. Bu tür sahtekarlıklar, analog ve fiziksel olarak zaten tarih boyunca hep yapılageldi. Ancak son zamanlarda sosyal medyada her an gelişen yapay zekâ uygulamalarına gösterilip, dinletilip, öğretilip “bunu kopyala” denebilecek o kadar çok ses, görsel ve bilgi bırakıyoruz ki… Giderek işleri kolaylaşıyor, yapabilecekleri çeşitleniyor.

YORUMLAR

  • 0 Yorum