它们有看似复杂的结果,但也可能被愚弄,从相对无害的错误识别一种动物为另一种动物,到引导自动驾驶汽车网络将停车标志误解为指示停车标志的潜在危险。
在《自然机器智能》年发表的一篇论文中,休斯顿大学的一位哲学家提出,关于这些假设故障背后原因的常见假设可能是错误的,而这些信息对于评估这些网络的可靠性非常重要。
随着机器学习和其他形式的人工智能越来越深入地融入社会,从自动柜员机到网络安全系统,它们得到了广泛的应用。UH哲学副教授卡梅隆巴克纳说,了解由什么引起的明显错误的来源非常重要。
研究人员称之为“对抗性例子”,这意味着当深度神经网络系统遇到除了用于构建网络的训练输入之外的信息时,它会误判图像或其他数据。它们之所以罕见,被称为“对抗”,是因为它们通常是由另一个机器学习网络创建或发现的——这是机器学习领域的一项边缘技术,介于创建复杂示例的更复杂方法和检测和避免它们的更复杂方法之间。
巴克纳说:“其中一些对抗性事件可能是人为产物。为了更好地了解这些网络的可靠性,我们需要更好地了解它们是什么。”
换句话说,失火可能是由网络需要处理的内容和涉及的实际模式之间的交互引起的。这和被完全误解不完全一样。
巴克纳写道:“为了理解对立例子的含义,我们需要探索第三种可能性:至少一些模式是人工制品。”".因此,目前,简单地丢弃这些模式既有成本,也有天真地使用它们的风险。”
导致这些机器学习系统出错的对抗事件,不一定是故意玩忽职守造成的,但这是风险最高的。
巴克纳说:“这意味着恶意行为者可能会欺骗依赖其他可靠网络的系统。”“有安全的应用程序。”