10分钟被骗430万元 “ai诈骗”应被零容忍-凯时尊龙官网
近期,多家媒体注意到,“ai换脸”新型诈骗频发,利用人工智能实施电信诈骗的典型案例冲上热搜,引发全网关注。据“平安包头”微信公众号消息,近日,包头市公安局电信网络犯罪侦查局发布一起使用智能ai技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生10分钟内被骗430万元。
正常情况下,人们都信奉“眼见为实”,尤其是随着视频通讯的普及,对于通过网络视频“面对面”的交流,大家总是很容易信任的。但上述诈骗案件告诉我们,这一点也正在被一些骗子“钻空子”。更重要的是,当前多数人对此都缺乏足够的警惕意识。
当务之急,还是要加强有针对性的防骗教育和提醒。类似的“ai换脸”诈骗案例,应该尽快通过多种渠道告知民众,尤其要提醒一些老年人。与此同时,防骗治理工作也要尽快跟上,目前对“ai换脸”诈骗的防范措施还比较少。针对这类诈骗的新手段和新路径,是否在技术层面能够有相应的防范措施,需要相关部门及企业加紧探索,织密防骗网络。比如,网络社交通信工具能否增加准确识别“ai换脸”操作的功能,以此对当事人作出提醒?
还要注意一点,“ai换脸”毕竟是建立在对人脸信息的加工和利用之上,这也应该让社会对如今人脸识别的滥用风险有更多的科学评估。因为在目前的现实条件下,人脸识别的应用范围越广,也就意味着人脸信息的泄露可能越严重。如此自然也就很容易降低“ai换脸”诈骗的门槛。对此,相关监管和立法应该要有所跟进,进一步明确人脸识别技术应用的边界,提高对人脸信息的保护力度。同时,语音、视频等合成技术的研发和使用 ,也应该进守住技术伦理底线,以从源头上减少其“干坏事”的可能性。
当然,对于“ai换脸”诈骗也没必要人人自危。说到底,过去一些最基本的防诈原则依然管用。比如,涉及钱款交易,一定要慎之又慎,进行多方验证。中国互联网协会就发出提醒:“在ai时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款,无论对方是谁!”这点其实相当重要,只要涉及转账操作和资金往来,一定要多留个心眼。这应当是每个人都需要拥有的防骗素养。
朱昌俊 来源:中国青年报