AI技术催生新型诈骗:拟声、换脸手法引警惕

理财基金问答发布时间:2023-10-26 浏览量:

亲眼所见、亲耳所闻可能都是假的?以为是熟人、领导,实际可能是AI! 10月13日,国家金融监督管理总局发布了风险提示,提醒广大金融消费者警惕利用AI新型技术实施的诈骗。当前,AI技术的广泛应用为社会公众提供了个性化、智能化的信息服务,但同时也给网络诈骗带来了可乘之机。不法分子可以通过面部替换、语音合成等方式制作虚假的图像、音频和视频,从而仿冒他人身份实施诈骗,给消费者合法权益造成了侵害。因此,国家金融监督管理总局发布消费者权益保护风险提示,提醒广大金融消费者警惕新型诈骗手段,维护个人及家庭财产安全。

利用AI新型技术实施诈骗主要有两种方式,即“拟声”和“换脸”。不法分子通常先以“网店客服”、“营销推广”、“招聘兼职”、“婚恋交友”等为借口,通过微信、QQ、电话等方式联系消费者,采集发音、语句或面部信息。然后再利用“拟声”和“换脸”等技术合成消费者虚假的音频或视频、图像,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可以对明星、专家、官员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。

AI技术催生新型诈骗:拟声、换脸手法引警惕

面对自称“熟人”、“领导”等通过社交软件、电话等以各种理由诱导汇款的情况,消费者务必核验对方身份。可以在沟通过程中提问仅双方知晓的问题,也可以利用其他通讯方式或见面核实,或者向对方的朋友、家人确认身份和情况。在无法确认对方身份时,应尽量避免进行转账操作。此类诈骗手段具有迷惑性和隐蔽性较强,诈骗金额也较高,因此需要消费者保持警惕。

对于个人信息的保护,消费者应提高个人信息保护意识,不要随意下载陌生软件、注册陌生平台或添加陌生好友,要时刻保持对个人社交账户的安全状况的警惕。同时,应尽量避免在互联网上过多地暴露个人照片、声音、视频等信息,不要贪图方便把身份证、银行卡照片等直接存放在手机内。如果不慎被骗或遇到可疑情况,应注意保存证据并立即向当地公安机关报案,以便维护自身权益。

综上所述,面对利用AI新型技术实施的诈骗行为,消费者需要提高警惕,核验对方身份,保护个人信息安全。只有这样,才能有效维护自身合法权益,避免成为网络诈骗的受害者。国家金融监督管理总局将继续关注AI技术在金融领域的应用,加强相关监管和风险预警,为广大金融消费者提供更加安全可靠的金融服务。