TikTok’taki düzmece tabipler tehlike saçıyor

Yapay zekâ tarafından üretilen “TikDoc’lar” gerçek sıhhat uzmanları üzere davranarak aldatıcı tıbbi tavsiyelerde bulunuyor ve kuşkulu tedaviler öneriyor.


0

Yapay zekâ tarafından üretilen “TikDoc’lar” gerçek sıhhat uzmanları üzere davranarak aldatıcı tıbbi tavsiyelerde bulunuyor ve kuşkulu tedaviler öneriyor. Siber güvenlik şirketi ESET, yaptığı araştırma ve incelemelerle tehlikenin boyutlarını ortaya koyarken kullanıcıların dikkat etmesi gerekenler hakkında da bilgilendirmede bulundu. 

 Bir vakitler araştırma laboratuvarlarıyla sonlu olan üretken yapay zekâ artık herkesin kullanımına açık; buna berbat niyetli olanlar da dahil. Bu şahıslar yapay zekâ araçlarını yaratıcılığı teşvik etmek için değil, aldatmacayı körüklemek için kullanıyor. Son derece gerçekçi görüntüler, manzaralar ya da sesler oluşturabilen Deepfake teknolojisi, sadece ünlü taklidi ya da kamuoyunu etkileme uğraşları için değil, birebir vakitte kimlik hırsızlığı ve her türlü dolandırıcılık için de giderek daha fazla başvurulan bir metot hâline geliyor.  Bir TikTok aldatmacası 

TikTok ve Instagram üzere toplumsal medya platformlarında, deepfake’lerin erişimi ve ziyan verme potansiyelleri bilhassa şaşırtan boyutlarda olabiliyor. ESET araştırmacıları Latin Amerika’da yakın vakitte yapay zekâ tarafından oluşturulan avatarların jinekolog, diyetisyen ve öteki sıhhat uzmanları üzere davranarak destek ve sağlıklı hayat eserlerini tanıttığı bir kampanyayla karşılaştı. Ekseriyetle son derece gösterişli ve ikna edici olan bu görüntüler, satış konuşmalarını tıbbi tavsiye kılığına sokarak dikkatsiz bireyleri kuşkulu ve potansiyel olarak büsbütün riskli alışverişler yapmaya yönlendiriyor.  Her görüntü misal bir senaryoyu takip ediyor: Ekseriyetle ekranın bir köşesine sıkışmış konuşan bir avatar, sıhhat yahut hoşluk ipuçları veriyor. Bir otorite havasıyla verilen tavsiyeler izleyicileri satış için muhakkak eserlere yönlendiriyor. Bu deepfake’ler, uzman tavsiyesi kisvesine bürünerek satışları artırmak için itimadı istismar ediyor ve bu taktik tesirli olduğu kadar etik dışı da olabiliyor.  Diğer görüntüler riskleri daha da artırarak onaylanmamış ilaçları ya da önemli hastalıklar için uydurma tedavileri öne sürüyor hatta bazen gerçek, tanınmış hekimleri taklit ediyorlar. 

TikTok‘ta yapay zekâ ile “kurtarma” yalanı 

Videolar, herkesin kısa imgeler göndermesine ve bunları gösterişli bir avatara dönüştürmesine imkan tanıyan legal yapay zekâ araçlarıyla oluşturuluyor. Bu, üretimlerini ölçeklendirmek isteyen influencerlar için bir nimet olsa da tıpkı teknoloji aldatıcı tezler ve aldatma için de kullanılabilir. Bir pazarlama hilesi olarak işe yarayabilecek bir şey süratle yanlış bilgileri yayma sistemine dönüşebilir.  ESET araştırmacıları eserlerini tanıtmak için deepfake hekimler kullanan 20’den fazla TikTok ve Instagram hesabı tespit etti. Bunlardan biri, 13 yıllık tecrübeye sahip bir jinekolog üzere davranarak direkt uygulamanın avatar kütüphanesine kadar izlendi. Bu tıp berbata kullanımlar, yaygın yapay zekâ araçlarının karar ve şartlarını ihlal ederken tıpkı vakitte bunların ne kadar kolay silah hâline getirilebileceğini de vurguluyor. 

TikTok tehlikelerinden uzak durun 

Yapay zekâ daha erişilebilir epeyce bu sahtekârlıkları tespit etmek de daha güç hâle geliyor ve teknoloji meraklıları için bile daha büyük bir zorluk oluşturuyor. Bununla birlikte, işte deepfake görüntüleri tespit etmenize yardımcı olabilecek birkaç işaret: 

  • Sesle senkronize olmayan dudak hareketleri yahut sert ve doğal olmayan yüz sözleri, 
  • Bulanık kenarlar yahut ani ışık değişimleri üzere görsel aksaklıklar  
  • Robotik yahut çok cilalı bir ses 
  • Ayrıca hesabın kendisini de denetim edin: Az takipçisi olan yahut geçmişi olmayan yeni profiller kuşku uyandırır, 
  • “Mucize tedaviler”, “garantili sonuçlar” ve “doktorlar bu numaradan nefret ediyor” üzere abartılı argümanlara dikkat edin, bilhassa de sağlam kaynaklardan yoksunlarsa, 
  • İddiaları her vakit emniyetli tıbbi kaynaklarla doğrulayın, kuşkulu görüntüleri paylaşmaktan kaçının ve aldatıcı içerikleri platforma bildirin. 

 

 

Kaynak: (BYZHA) Beyaz Haber Ajansı


Beğendiniz mi? Arkadaşlarınızla paylaşın!

0

Bir tepki ver

hate hate
0
hate
confused confused
0
confused
fail fail
0
fail
fun fun
0
fun
geeky geeky
0
geeky
love love
0
love
lol lol
0
lol
omg omg
0
omg
win win
0
win

YORUM

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir