智能

未来科技绘画中的他视频聊天背后的真实面目

新华社发 (徐骏 作)

通过AI换脸和拟声技术,10分钟内骗取430万元;AI虚拟人在聊天中筛选出受害者,人工接力实施……近期,一些宣称利用AI技术实施的案件引起了公众的关注。

“新华视点”记者近日与相关部门核实确认,“AI全国爆发”的消息是不准确的,目前此类案件数量占比很低。但是,公安机关已经注意到这种新的犯罪手段,将会加大力度,与有关部门共同开展技术反制和宣传防范工作。

专家指出,由于使用边界不清晰,随着AI技术快速迭代,由于涉诈风险正在积聚,我们需要高度警惕。

■ “换脸”式事件引发焦虑:

你是否会被亲友的面孔所欺骗?

最近,一起利用AI进行的案件在内蒙古包头被通报。福州市某公司法人代表郭先生仅用了10分钟,就失去了430万元。据报道,这些骗子利用的是AI换脸和拟声技术,以熟人的身份进行诈骗。

这起事件曝光后,不少媒体提醒人们要警惕“AI潮”。例如,有小伙伴们也遭遇过类似的经历:江苏常州的小刘曾被骗子冒充为其同学,用语音和视频电话方式骗取6000元。

那么,“AI潮”真的来了吗?

记者调查发现,即使这些高科技工具能够实现换脸、拟音,但要做到“广撒网”,还需要很多其他条件。

一位经验丰富的民警告诉记者,这种类型如果成功实施,还需要:收集目标人物的个人信息、大量的人脸图片、语音素材,然后通过计算机生成假相真实的声音;窃取目标人物微信号码;掌握目标人物社会关系等多方面信息,并且成本非常高。

他认为:“一些报道对这些典型细节描述并不准确。”他说:“成熟类型化犯罪往往具有集中爆发特点,但目前没有出现大量发生。”

公安机关分析认为,这种网络上的‘’传言是不真实的情况,但是值得我们高度关注。此类应用程序存在滥用的可能性,因此必须加强防范措施。

■ AI正处于快速迭代阶段

涉及诈骗风险正在增加

香港科技大学(广州)协理副校长、人工智能学域主任熊辉表示:“当前人工智能发展达到了一个拐点,在未来几年里,每个月都会有巨大的进步。”

根据官方数据显示,与前几年相比,现在合成视频门槛降低,而学习样本量减少,可以在手机上完成,对算力的需求下降。同时,大模型助推,加快从面部合成向全身3D合成为现实,使效果更加逼真。

国家开发投资集团特级专家赵建强总经理表示:“现在的人工智能正越来越深入地渗透到我们的生活中,比如网络平台上的假冒明星图像或者虚假信息等。”

值得注意的是,如今这些先进功能已然普及,只需简单搜索即可找到教程。而国内知名App上检索结果显示有“免费换脸软件”、“如何制作替身视频”的内容。这表明使用这样的软件变得非常容易。

杨虎城律师提出:“过去‘眼见为实’但今后看到的事物可能并非真的。”他预测未来的问题将包括违法犯罪以及民事侵权问题,如敲诈勒索或名誉侵犯等。他建议早作准备以防万一,因为这一趋势值得我们关注并提前防范。

另一位反诈演讲员指出虽然目前尚未形成气候,但这一趋势值得我们留意,并要求提前采取措施以应对潜在威胁。

你可能也会喜欢...