谷歌TensorFlow被爆安全漏洞

消息来源: 光明网         消息类型: 行业新闻         发布日期:2017-11-22

近日,TensorFlow首个安全风险被中国开发者发现。据悉,利用该风险,攻击者可以生成TensorFlow的恶意模型文件,对AI用户进行攻击,对使用者自身的AI应用进行窃取或篡改、破坏。目前,Google官方已经确认了该漏洞,并表示TensorFlow官网将在网站创建安全公告页面,及时披露和修复安全漏洞。

据悉,有用户研究TensorFlow模型文件时发现该漏洞,随后深入挖掘TensorFlow API文档及源码过程中确认漏洞。据介绍,虽然该漏洞还未被“有心之人”利用,但是它的风险危害面非常大,一方面攻击成本低,普通攻击者即可实施攻击;另一方面迷惑性强,大部分AI研究者可能毫无防备。

此外,由于TensorFlow自身的机制,一旦漏洞被攻击,其在PC端和移动端的最新版本均会受到影响。AI模型被窃取,损失的是开发者的心血;而一旦被篡改,造成AI失控,后果更难以想象。

谷歌TensorFlow被爆安全漏洞 或严重损害开发者利益

有专业人士表示,虽然TensorFlow漏洞尚未造成攻击事件,但该漏洞不仅存在于TensorFlow最新版本中,老版本也存在,而且存在时间较长,早已使用TensorFlow开发的开发者需要引起重视。

近年来,由于AI框架刚开始被大范围使用,截至首个安全风险被报告,业内对此类安全问题关注度还不够。但TensorFlow可能是目前使用范围最广的AI框架了。除了谷歌以外,Ebay、Airbnb、Twitter、Uber等国际企业都在使用TensorFlow进行AI模型训练和开发。在中国,小米、中兴、京东等公司也在使用TensorFlow的开源框架。

在TensorFlow中,AI研究者可以复用他人建好的模型来进行AI训练,或直接使用其提供的AI服务,大大提高开发效率。这些公开的模型通常以文件形式提供,也普遍被认为是无害的。但这次的漏洞事件也为广大开发者敲响警钟,未来开发者在使用开源框架时需要更加小心,比如谨慎使用外部提供的TensorFlow模型。

此前,有媒体报道,TensorFlow、Caffe、Torch三个深度学习框架中包括很多第三方软件包,存在安全风险。一项初步研究显示,三个框架中发现了15个漏洞,类型包括:DoS拒绝服务攻击、躲避攻击等。研究者表示:“深度学习框架是复杂的,重度依赖大量开源软件包。”这些依赖库,也正是漏洞的根源。

实际上,AI安全的问题不只涉及普通开发者,更牵扯到国家信息安全问题,业界和学界早已开始关注。今年7月,哈佛大学肯尼迪政治学院贝尔弗科学与国际事务中心发布《人工智能与国家安全》报告,分析人工智能(AI)对美国家安全的巨大影响,为美政府AI政策提供建议。

报告指出,如今的AI技术能力在国家安全方面拥有巨大潜力,如机器学习技术可使卫星图像分析和网络防御等劳动密集型活动实现高度自动化。同时,AI的每一种技术都能为国家安全机构的战略、组织、优先事项和资源分配带来重大变革,由此可见,AI安全也变得至关重要重要,任何一点安全漏洞都有可能导致国家的巨大损害。

我国对人工智能的安全问题同样持谨慎态度。《新一代人工智能发展规划的通知》中曾明确指出,人工智能发展的不确定性带来新挑战。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。

此次TensorFlow漏洞事件就像是给AI开发者的一次预警,AI时代的风险攻击,可能还在造成线上线下一体化影响,开发者在使用开源框架时要“长点心”,务必谨慎挑选。同时,这也为国家敲响警钟,在“AI强国”时代,AI的快速迭代无疑重要,但安全问题更加严峻,任何一点隐患都可能造成无法弥补的后果。

服务热线
025-8660 3700

微信公众号