眼看不一定是真的!警惕AI“变脸”“拟声”诈骗!

2024-07-23

人常说“眼见为实”


AI时代


看也不一定是真相!


一些居心不良的不法分子。


利用AI“变脸”“拟声”技术实施诈骗


已成为一种新的欺骗行为


一个“熟悉声音的电话”


一个看起来像熟人的视频


都有可能是犯罪分子的诈骗套路


朋友们


小心谨慎,保持警惕!


AI诈骗是什么意思?


“AI诈骗”是指犯罪分子利用人工智能(AI)技术,模仿和伪造他人的声音、外貌等信息,制作虚假图像、音频和视频,伪造他人身份进行欺骗、敲诈和勒索等犯罪行为。


在现实案例中,犯罪分子伪装自己的家人和领导同事的脸和声音,通过AI技术诈骗这些人。因为伪装的面部表情自然,声音真实,受害者一般不会质疑,也不会发现任何异常,然后上当受骗。


如何介入AI技术的新骗局?


新的欺诈方式有哪些?


了解AI诈骗的常用手段。


提高分辨率↓↓


AI拟声诈骗


AI拟声是指通过AI技术将文本或其他形式的信息转换为语音导出。犯罪分子通过骚扰电话音频等方式提取某人的声音。,然后在获得材料后产生声音,然后他们可以用伪造的声音欺骗目标群体。


AI变脸诈骗


人工智能变脸是指通过人工智能技术将一个人脸图像替换到另一个人脸图像,并保持原始图像的其余部分不变。犯罪分子通过网络收集人脸生物信息,通过人工智能技术选择群体,利用人工智能技术在视频通话中变脸,骗取目标群体的财产。


面临这种新的“AI诈骗”


怎样才能预防?


小编为大家送上一份“防骗骗子”


多重验证,确定身份


当涉及到金钱、资产等重要事项时,可以要求对方提供更多的证据,进行更多的交流。特别是熟人如“朋友”、“领导”等要求转账汇款的,必须通过电话、会议等方式进行核实确认。,而不是未经核实随意转账汇款。


保护个人信息,谨慎分享,


AI诈骗是隐私信息泄露与诈骗陷阱的融合。因此,要加强个人隐私的保护,不要轻易向他人提供面部、指纹等个人生物信息,不要过度公开或分享动画、视频等。尽量避免过度泄露自己的信息,以免在互联网和社交软件上被骗子“精准狩猎”。


提高安全意识,确保各类帐户的安全。


避免在不可信的网络平台上下载未知来源的应用,避免手机、电脑中的病毒、微信、QQ等被盗号码,不打开来源不明的邮件附件,不点击不熟悉的链接,不添加任何陌生朋友。


朋友们


必须提高警觉,增强防范意识。


盖上自己的钱包!


记得点击“赞”和“在看”


让广大小伙伴get哦!


标题:“眼见不一定是真的”!警惕AI“换脸”“拟声”诈骗!


阅读原文


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com