当前报道:AI换脸诈骗高发:男子装“老外”谈恋爱勒索钱财,带货“明星”全都是“假脸姐妹团”

来源:东方资讯


(资料图)

近日,包头警方发布一起利用AI换脸技术实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。这起案件引发了社会的广泛关注和讨论,人们纷纷担忧,随着人工智能的发展,在带来便捷与创新的同时也带来了巨大的风险和挑战,需要各类平台和监管方加强合作和规范,保障人工智能的健康、可持续和负责任的发展。

据了解,这起案件中,骗子首先“攻陷”了郭先生好友的微信,然后用AI合成了其好友的脸和声音,通过视频聊天骗取了郭先生的信任。在得知其好友需要借用公司账户转账的情况下,郭先生没有核实钱是否到账,就将430万元转给了对方提供的账户。当他发现被骗时为时已晚。

随着人工智能技术的进步和普及,AI换脸、AI拟声等技术被用于诈骗、敲诈、侵权等不法行为中,给公众造成了严重的财产损失和精神伤害。上游新闻通过公开资料对近期发生的AI诈骗案例进行了梳理。

大学生接5秒视频电话被骗3000元

据湖北网警巡查执法公众号消息,2022年4月,湖北省某市一名大学生肖丽(化名)收到同学通过QQ跟她借钱的信息。对方打过来一段五秒的视频电话,肖丽看到确实是本人,便放心转账3000元。然而,在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,那段视频很有可能是被人换了脸。

▲AI电话诈骗作案流程。图片来源/湖北网警巡查执法

另据新华网报道,2021年12月,江苏省某市一名男子小李(化名)在网上看到一则招聘信息,并添加了对方微信。对方自称是某知名企业的人力资源部经理,并通过视频与小李沟通。小李被告知通过面试后需要缴纳2000元培训费,并提供身份证、银行卡等信息。小李照做后发现被骗。原来对方用AI换脸技术伪装成该企业真正的经理,并利用其社交媒体上发布的视频进行合成。

标签:

推荐

财富更多》

动态更多》

热点