首页 调查 > 正文

防范“AI诈骗”,让技术为人类造福


(资料图片仅供参考)

随着人工智能的迅猛发展,诈骗团伙的诈骗手段也越来越科技化,竟然用上了AI换脸技术。近日,包头警方发布一起利用AI实施电信诈骗的典型案例。案件披露后,“AI诈骗正在全国爆发”话题一度冲上热搜第一,引发网友热议。(5月24日 工人日报微信公众号)

随着不法分子对AI技术的广泛运用,普通人面临着越来越大的信息安全隐患,但并非无能为力,最关键、最重要的就是提高警惕性,加强对新型诈骗手段的认知和防范。首先,不要轻易提供人脸、指纹等个人生物信息给他人,也不要过度公开或分享动图、视频等。其次,在进行网络转账前,要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。这些措施或多或少可以起到一定的预防效果,避免自身权益的损失,。

尽管如此,一些防范方法在实际中难以实施,例如遇到一个被换脸的长辈要求转账,一般人碍于身份,难以要求对方完成“张嘴”、“摇头”等验证身份的动作指令。然而,个人面对涉及金钱交易时,仍应多加小心、多方求证,切勿麻痹大意。我们应该相信真正的长辈、好友和合作伙伴,不会因为我们的谨慎而对我们有所怨言。

事实上,针对技术手段日益更新的AI诈骗事件,网络安全法、个人信息保护法以及互联网信息服务算法推荐管理规定等均对生物识别、生物合成类内容等提出了不同程度的规制要求。1月10日起施行的《互联网信息服务深度合成管理规定》也明确了深度合成数据和技术管理规范,要求提供深度合成服务,应当进行显著标识。

这些法律法规,为AI换脸划定了“红线”。对此,技术提供商如发现故意将合成内容用于伪造诈骗的行为,应该第一时间中止服务,并向监管部门报告。有关部门也要加大执法力度,对那些未经肖像权人同意,通过技术手段提取肖像,或利用换脸软件对他人从事违法犯罪活动者,及时追究其法律责任,并深挖背后的黑色产业链,从源头打击AI诈骗。

同时,相关行业和监管部门有必要进一步细化深度合成技术的行业规范,对反诈手段“提档升级”。例如,实施更有力的隐私保护措施,防止公民隐私泄露;提高技术拦截手段,在AI诈骗出现之时就予以屏蔽;提高追缴能力,以便在诈骗发生后迅速挽回损失等。

未来已来,虚拟世界和现实世界相互渗透,AI换脸不仅是一个技术问题,也是一道治理考题。我们需要加强技术监管和治理,预防和减少AI换脸滥用问题。同时,我们也需要更加深入地思考,怎样在不对社会造成伤害的同时,让技术开出绚丽之花,为人类造福。(孔德淇)

标签:

精彩推送