Güvenlik

Darkweb’de deepfake oluÅŸturma fiyatları dakika başına 20 bin dolara ulaÅŸtı

Kaspersky, farklı kötü niyetli amaçlar için deepfake video ve ses oluÅŸturma hizmeti veren çeÅŸitli Darknet pazarlarını ve yeraltı forumlarını analiz etti. Bazı durumlarda bireyler, deepfake oluÅŸturmak için ünlüler veya siyasi figürler gibi belirli hedefler talep edebilir.

Siber suçlular, üretilen yapay zeka videolarını yasa dışı faaliyetler için çeÅŸitli ÅŸekillerde kullanıyor. Bireyleri veya kuruluÅŸları dolandırmak için kullanılabilecek sahte videolar veya görüntüler oluÅŸturmak için deepfake örnekleri kullanabiliyor. ÖrneÄŸin bir CEO'nun banka havalesi talep ettiÄŸi veya bir ödemeyi yetkilendirdiÄŸi sahte bir video hazırlanabiliyor ve bu video kurumsal fonları çalmak için kullanabiliyor. Sahte videolar, kiÅŸilerden para ya da bilgi sızdırmak için kullanılabilecek videolar ya da görüntüler oluÅŸturmak için de kullanılabilir Siber suçlular ayrıca yanlış bilgi yaymak veya kamuoyunu manipüle etmek için deepfake'lerden faydalanabiliyor. ÖrneÄŸin bir politikacının tartışmalı açıklamalar yaptığı sahte bir video oluÅŸturabiliyor ve bunu seçimin sonuçlarını etkilemek için kullanabilir.

Elon Musk'ın yeni bir kripto para dolandırıcılığını tanıttığı bir deepfake

Deepfake teknolojisi, meÅŸru hesap sahibinin gerçekçi sahte videolarını veya ses kayıtlarını oluÅŸturarak ödeme hizmetlerinde doÄŸrulama aÅŸamasını atlamak için kullanılabiliyor. Bunlar, ödeme hizmeti saÄŸlayıcılarını gerçek hesap sahibiyle karşı karşıya olduklarını düÅŸünmeleri için kandırmak ve böylece hesaba ve ilgili fonlara eriÅŸim elde etmek için kullanılabiliyor.

Kaspersky Lider Veri Bilimcisi Vladislav Tushkanov, ÅŸunları söyledi:

"Deepfake'ler giderek artan bir ÅŸekilde ÅŸantaj ve dolandırıcılık amacıyla kullanılıyor. ÖrneÄŸin, bir Ä°ngiliz enerji firmasının CEO'su, ana ÅŸirketinin baÅŸkanının acil fon transferi talep eden bir ses deepfake'i ile 243 bin dolar dolandırıldı. Neticede fonlar dolandırıcının banka hesabına aktarıldı. Durum ancak suçlu baÅŸka bir transfer talebinde bulununca ortaya çıktı, ancak o zamana kadar zaten transfer edilmiÅŸ olan fonları geri almak için çok geç kalınmıştı. Benzer bir vaka BAE'de rapor edildi ve burada da ses deepfake'i içeren bir dolandırıcılıkta 400 bin dolar çalındı. Bununla birlikte deepfake'lerin yalnızca iÅŸletmeler için deÄŸil, aynı zamanda bireysel kullanıcılar için de bir tehdit olduÄŸunu unutmamak gerekir. Bunlar yanlış bilginin yayılmasına sebep olabilir, dolandırıcılık için kullanılabilir veya rızası olmadan baÅŸka birinin kimliÄŸine bürünebilir. Dijital okuryazarlık seviyenizi artırmak, bu tehditlere karşı koymak için anahtar niteliÄŸindedir."

19

Darkweb kaynaklarının sürekli izlenmesi, deepfake endüstrisi hakkında deÄŸerli bilgiler saÄŸlayarak araÅŸtırmacıların bu alandaki tehdit aktörlerinin en son eÄŸilimlerini ve faaliyetlerini takip etmelerine olanak tanıyor. AraÅŸtırmacılar darknet'i izleyerek deepfake' lerin oluÅŸturulması ve dağıtımı için kullanılan yeni araçları, hizmetleri ve pazar yerlerini ortaya çıkarabiliyor. Bu tür bir izleme, deepfake araÅŸtırmasının kritik bir bileÅŸenini oluÅŸturuyor ve geliÅŸen tehdit ortamına iliÅŸkin anlayışımızı geliÅŸtirmemize yardımcı oluyor. Kaspersky Dijital Ayak Ä°zi Ä°stihbaratı hizmeti, müÅŸterilerinin deepfake ile ilgili tehditler söz konusu olduÄŸunda bir adım önde olmalarına yardımcı olmak için bu tür bir izleme içerir.

20

Kaspersky, deepfake ile ilgili tehditlerden korunmak için ÅŸunları önerdi:

21

"KuruluÅŸunuzdaki siber güvenlik uygulamalarını kontrol edin. Yalnızca yazılımları deÄŸil, aynı zamanda geliÅŸmiÅŸ BT becerilerini de ele alın. Mevcut tehdit ortamının önüne geçmek için Kaspersky Threat Intelligence kullanın.

Kurumsal "insan güvenlik duvarınızı" güçlendirin. Çalışanların deepfake'lerin ne olduÄŸunu, nasıl çalıştıklarını ve yol açabilecekleri problemleri anlamalarını saÄŸlayın. Çalışanlara bir deepfake'i nasıl tespit edeceklerini öÄŸretmek için sürekli farkındalık ve eÄŸitim çalışmaları yapın. Kaspersky  Automated Security Awareness Platform , çalışanların en yeni tehditler konusunda güncel kalmasına yardımcı olur ve dijital okuryazarlık seviyelerini artırır.

Nitelikli haber kaynaklarına baÅŸvurun. Bilgi cehaleti, derin sahtekarlıkların yaygınlaÅŸmasını saÄŸlayan önemli bir etken olmaya devam ediyor.

'Güven ama doÄŸrula' gibi iyi protokollere sahip olun. Sesli mesaj ve videolara ÅŸüpheyle yaklaÅŸmak insanların asla kandırılmayacağını garanti etmez, ancak yaygın tuzakların çoÄŸundan kaçınmaya yardımcı olabilir.

Deepfake videoların dikkat edilmesi gereken temel özelliklerinin farkında olun. Sarsıntılı hareket, bir kareden diÄŸerine ışık kaymaları, cilt tonunda kaymalar, garip ÅŸekilde göz kırpma veya hiç göz kırpmama, dudakların konuÅŸmayla senkronize olmaması, görüntüdeki dijital kalıntılar, videonun kasıtlı olarak düÅŸük kalitede kodlanmış ve zayıf aydınlatmaya sahip oluÅŸu sahteciliÄŸi ele vermeye yardımcı olan ipuçlarıdır."

Not: "Görsel sehven hatalı girilmiÅŸtir."

Hibya Haber Ajansı

Ä°lgili Makaleler