近日,南京理工大学计算学院李千目教授团队开展的“面向人工智能对抗性恶意样本的监测技术”在人工智能国际学术会议AAAI2019上发表,算法及其实验获得大会“Challenge Problem Winner”,这也是明升中国信息安全学者首次获得该奖项。该成果将提高在对抗环境中智能恶意软件监测方法的可靠性和安全性。
人工智能(AI)在工业制造、医疗健康、教育等越来越多领域得到广泛应用,给人们的生产、生活带来极大便利,与此同时,也存在一定的安全隐患。长期以来,恶意软件作为社会公共安全的重要威胁,成为公安、工信和交通管理等部门监测打击的目标。但为了逃避监测,恶意软件研制人员便将人工智能技术应用在抵抗监测方面,因此出现了对抗性恶意样本生成和注入等新型技术,这类技术俗称“针对人工智能的智能攻击”。目前,信息安全研究界和安全产品市场上还没有针对抵御这些攻击的普适性有效对策。
针对当前大量现有监测系统中的机器学习算法容易受到对抗性逃避监测的人工智能算法攻击这一现状,李千目教授团队开展了“面向人工智能对抗性恶意样本的监测技术”研究。他们尝试增强深度学习模型,主要利用人工智能分类器对恶意软件进行分类,以恶意软件为输入样本,分为训练数据集和测试数据集两部分。在训练阶段,训练多个人工智能分类器的集合,在每个分类器上都将所提出的原则系统化地加以运用;在测试阶段,将样本输入至每个分类器,最后根据所有分类器的投票结果确定样本是不是对抗性恶意软件。
据团队成员李德强博士介绍说,这项技术的关键是在训练阶段,创新地提出了一些设计和规避的原则,用于恶意软件分类的设置中,增强智能分类器对抗对抗性逃避攻击的可靠性和安全性。
李千目表示,该研究成果应用很广泛,可用于规范工业互联网、智能无人系统等领域的顶层安全设计,通过统一智能系统的安全体系架构,增强无人系统等智能系统的安全互联互通互操作能力,提升智能系统的信息防御能力;也可用于指导智能平台、工业互联网的产品安全研制,通过通用化、标准化、组件化,使得各种安全功能构件可重用、可替换,大量减少采购费用;还可用于指导智能平台和工业互联网的安全组件编配和协调运用,通过安全资源优化、安全监测流程优化、安全组件编配,提高智能系统适应多种安全防御任务的能力,提升无人系统之间、无人系统与有人系统,以及无人系统与网络信息体系的安全交互能力。