专门研究机器学习局限性的怀俄明大学助理教授Jeff Clune说:“研究如何欺骗深度神经网络和规划不可欺骗的深度神经网络是一个不错的想法。” 这场竞赛将由三部分组成。第一个挑战是让机器学习系统混乱,使其无法正常工作。第二个是强制让系统产生分类错误。第三个涉及到开发一个坚固的防御系统。详细信息将在今年晚些时候一个重要的AI大会上公布。 机器学习,特别是深度学习,正在快速成为许多行业不可或缺的工具。这项技术是将数据提供给一种特殊的计算机程序,并指定特定的结果,以使计算机能开发出自己的算法来实现这个结果。深度学习就是通过不断调整一个庞大而又相互连接的数学模拟神经元的参数来实现这个的。 众所周知,机器学习系统可以被欺骗的。例如,垃圾邮件发送者可以通过找出邮件过滤器算法的训练模式来避开现代垃圾邮件过滤器。 然而,近年来,研究人员表明,即使是最聪明的算法有时也会以不可思议的方式被误导。例如,具有近乎人类技能的深度学习算法在识别图像对象的时候,可能会被看似抽象或随机的图像所欺骗。 谷歌大脑的研究人员Ian Goodfellow表示:“对抗性机器学习比传统的机器学习更难研究,很难判断出攻击是否强悍,或者防御是否薄弱。” 谷歌大脑是一个专门研究和使用机器学习的部门,这次竞赛就是他们组织的。 随着机器学习的普及,人们担心这种攻击会被用于营利或纯粹的恶作剧。例如,黑客可能会避开安全措施来安装恶意软件。 Goodfellow表示:“计算机安全正向着机器学习的方向发展。犯罪分子将运用机器学习进行自动化攻击,而我们将运用机器学习来防御”。 从理论上来说,犯罪分子可以让声音和面部识别系统瘫痪,甚至会侵入交通信号系统以欺骗自动驾驶汽车的视觉系统,导致系统崩溃。 Kaggle已经成为算法开发的宝地,也是优秀数据科学家的摇篮。该公司于3月份被Google收购,现在已成为Google Cloud平台的一部分。Goodfellow和另一位谷歌大脑的研究人员Alexey Kurakin在收购之前就提出了有关本次竞赛的想法。 Kaggle的联合创始人兼首席技术官Benjamin Hamner表示,他希望竞赛能引起人们的关心。他说:“随着机器学习的运用越来越广泛,从对抗学习中理解问题和风险变得越来越重要。” 举办公开竞赛的好处超过了宣传新型攻击相关的任何风险,他补充说道:“我们应该公开分享这项研究的成果,而不是闭门造车。” 同时,Clune表示,他希望这次竞赛能够找到抵御攻击的算法。
|
发表评论