您现在的位置是:首页 > 科技网站首页科技

思考机器学习的新方法

  • 科技
  • 2021-12-10 04:40:01
  • 来源:
导读 深度神经网络是利用数学模型处理图像和其他数据而构建的多层系统,是人工智能的基石。它们有看似复杂的结果,但它们也可能被愚弄,从相对无

深度神经网络是利用数学模型处理图像和其他数据而构建的多层系统,是人工智能的基石。它们有看似复杂的结果,但它们也可能被愚弄,从相对无害(把一种动物误认为另一种动物)到潜在致命(如果引导自动驾驶汽车的网络将停车标志误解为安全停车标志)。去吧。

在《自然机器智能》年发表的一篇论文中,休斯顿大学的一位哲学家提出,关于这些假设故障背后原因的一般假设可能是错误的,这些信息对于评估这些网络的可靠性非常重要。

随着机器学习和其他形式的人工智能越来越深入地融入社会,ATMs的所有应用大学网络哲学副教授Cameron巴克纳表示,对于网络安全系统来说,当深度神经网络系统在面对信息时误判图像或其他数据时,了解研究人员所说的“对抗性例子”导致明显失败的根本原因是非常重要的。除了构建网络的培训输入之外。它们是罕见的,所以被称为“对抗”,因为它们通常是由另一个机器学习网络——机器学习领域的边缘技术——创建或发现的,它介于创建对抗示例的更复杂方法和检测和避免它们的更复杂方法之间。

巴克纳说:“相反,其中一些对抗性事件可能是人为产物。为了更好地了解这些网络的可靠性,我们需要更好地了解它们是什么。”

换句话说,失火可能是由网络需要处理的内容和实际涉及的模式之间的交互造成的。这和被完全误解不完全一样。

巴克纳写道:“要理解对抗性例子的含义,我们需要探索第三种可能性:至少一些模型是人工产品。”".因此,目前简单地丢弃这些模型既有成本,也有天真地使用它们的危险。”

导致这些机器学习系统出错的对抗事件,不一定是故意玩忽职守造成的,但这是风险最高的。

巴克纳说:“这意味着恶意行为者可能会欺骗依赖于原本可靠网络的系统。”“有安全的应用程序。”

例如,基于面部识别技术的安全系统可能会被黑客攻击,以允许违规行为发生,或者交通标志上可能会贴上贴纸,使自动驾驶汽车误解标志,即使标志对观察者无害。

先前的研究发现,与先前的假设相反,有一些自然发生的对立例子——机器学习系统通过偶然的交互而不是数据错误来误解数据的时间。它们很罕见,只能通过人工智能找到。

但它们是真实的,巴克纳说,这表明研究人员需要重新考虑如何处理异常或人工制品。

这些人工制品没有被很好地理解。巴克纳提供了一个照片中镜头眩光的类比——这种现象不是由相机镜头的缺陷引起的,而是由光线和相机之间的相互作用引起的。

如果你知道如何解释,透镜耀斑可能会提供有用的信息,比如太阳的位置。他说,这就提出了一个问题,那就是工件引起的机器学习中的不良事件是否也提供了有用的信息。

同样重要的是,巴克纳说,这种新的思维方式将影响人工产物影响深层神经网络的方式,这表明网络误读不应自动被视为深层学习无效的证据。

他说:“其中一些对抗性事件可能是人工产物。”“我们必须知道这些工件是什么,这样我们才能知道网络的可靠性。”

免责声明:本文由用户上传,如有侵权请联系删除!
Top