朋友找你借钱
而且还给你主动打了视频电话来确认是本人
这样你会借钱吗?
【资料图】
当心,这可能是AI诈骗!
最近,包头警方发布了一起利用人工智能(AI)实施电信诈骗的典型案例。
事情是这样的,福州市某科技公司法人代表郭先生,突然接到了好友的微信视频。
两人经过短暂聊天后,好友告诉郭先生,自己的朋友在外地投标,需要430万元保证金,且需要公对公过账,所以想要借用郭先生公司的账户走账。
好友向郭先生要了银行卡号,声称把钱打到郭先生的账户上了,并且提供了银行转账截图。
了解到只是用自己的公司账号帮忙走账,再加上是“朋友”视频电话认证过,又看到转账截图。
郭先生就没有确认是否到账,分两次把430万转到了对方提供的银行账号里。
直到郭先生拨打好友电话,才知道被骗。
本来以为是一桩为朋友两肋插刀的美事,万万没想到,却是被AI换脸进行诈骗的一桩坏事。
很心疼郭先生的被骗经历。谁能想到,都已经微信视频核实好友身份了,还能被骗?
可怕的是,类似这种使用AI技术进行诈骗的行为已非个例。
早在2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要求该高管转账,就被诈骗了150万元。
国外也有不少利用AI克隆声音进行诈骗的例子。仅在加拿大涉案金额就超过百万。诈骗犯通过社交媒体收集音频素材,之后使用AI模仿声音主人的声线,去欺骗他们的家人。
那么如何不陷入骗子设下的圈套?我认为可以从以下两点入手:
首先,保护个人信息,加强防护。
加强个人信息保护意识。应当保护好自己的生物信息,避免使用收集指纹、人脸识别等生物信息的公共设施设备。
在使用手机app或登录网站时,应仔细阅读相关的告知书和风险提示,如发现有泄露个人信息风险时,应停止使用或者使用其他替代方式登录。
重要平台或者APP的账户密码要定期修改,并且尽量避免使用生日作为密码。
陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。
其次,多重验证,确认身份
目前,AI换脸、换声难以区分。不过一般来说,骗子只会掌握的一个社交软件,不太可能把所有的社交软件都控制住,也不可能知道你们的隐私。
因此,在涉及钱款时,可以多询问一些具体信息,也可以通过见面、电话等多渠道确认对方是否为本人。
不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。
如果仍然无法确认对方身份,那就多一事不如少一事,不要拿自己的钱去试错,尽量不要进行远程转账。
对于金融行业来说,AI换脸的行骗风险更需要多一分警惕。
除了要注意上面两点之外,不要轻信网上大佬各种高收益的“视频”站台,不参与任何形式非法证券期货活动,树立自己正确的投资观念。
牢记一条,凡是让自己掏钱的事情一定三思。
关键词: