麻省理工学院:研究增强人工智能模型的周边视觉 帮助驾驶员发现未知风险
盖世汽车讯 受益于周边视觉(peripheral vision),人类能够看到不在自己视线范围内的形体。尽管不那么详细,但这扩大了人们的视野,在许多情况下都很有用,例如检测从侧面接近用户汽车的车辆。与人类不同,人工智能(AI)没有周边视觉,为计算机视觉模型配备这种能力,有助于更有效地检测周边风险,或预测人类驾驶员是否会注意到迎面而来的物体。

(图片来源:麻省理工学院)
据外媒报道,麻省理工学院(MIT)的研究人员开发出图像数据集,从而能够在机器学习模型中模拟周边视觉。他们发现,使用该数据集来训练模型,可以提高模型检测视觉边缘物体的能力,尽管其表现仍然比不上人类。结果还表明,与人类不同,物体大小和场景中的视觉混乱程度,都不会对AI性能产生较大影响。
研究人员Vasha DuTell表示:“研究人员测试了很多不同的模型,通过训练它们会变得更好一点,但还是无法达到与人类相当的程度。由此产生的问题是:这些模型缺少什么?”如果研究人员能够解决这个问题,可能有助于建立机器学习模型,使之能够更像人类一样地看待世界。除了提高驾驶员安全性,此类模型还可用于开发更便于查看的显示器。
此外,研究人员Anne Harrington表示,更深入地了解AI模型中的周边视觉,有助于更好地预测人类行为。“如果能够真正捕捉外围所呈现的本质,对周边视觉进行建模,就可以帮助人们理解视觉场景中的特征,从而使眼睛移动以收集更多信息。”
研究人员Ruth Rosenholtz表示,无论何时,当人类与机器(汽车、机器人、用户界面)进行交互时,了解人类能看到的东西十分重要,而周边视觉在这个过程中发挥着关键作用。
模拟周边视觉
将手臂伸到身前,竖起拇指,从视网膜的中央凹可以看到拇指指甲周围的小区域。作为视网膜中部的小凹陷,中央凹可以提供最清晰的视觉,而人们能看到的其他一切都在视觉边缘。当人们的视觉皮层远离锐利的焦点时,所展现的场景细节和可靠性就会减弱。AI中许多现有的周边视觉建模方法,通过模糊图像边缘来表现这种不良细节。然而,在视神经和视觉皮层中发生的信息丢失要复杂得多。
为了实现更准确的方法,MIT研究人员开始使用纹理平铺模型(texture tiling model)方法。这种方法是用于模拟人类周边视觉的技术,通过转换图像来展示人类视觉信息的损失。他们修改了这个模型,使其可以类似方式转换图像,但这种方式更加灵活,无需提前知道人或AI会把他们的眼睛移向哪里。这让研究人员能够像人类视觉研究中那样忠实地为周边视觉建模。
研究人员利用这种修改后的技术生成巨大的转换图像数据集,这些图像在某些区域显得更具纹理,以展示人类进一步观察周边时发生的细节损失。然后,他们利用该数据集来训练多个计算机视觉模型,并对它们在物体检测任务中的表现与人类的表现进行比较。
特殊性能
研究人员向人类和模型展示了成对等变换图像,只是其中一个图像的目标物体位于边缘。然后,他们要求每个参与者选出带有目标物体的图像。Harrington表示:“让人惊讶的是,人类是多长擅长检测周围物体。我们浏览了至少10组不同的图像,这些图像都太简单了,需要使用越来越小的物体。”
研究人员发现,利用数据集从头开始训练模型,可以充分提升性能,提高其检测和识别物体的能力。使用数据集来微调模型,该过程涉及调整预训练模型,以便它可以执行新任务,但性能提升较小。然而,在每种情况下,机器的表现都比不上人类,尤其是检测最外围的物体。他们的性能表现也不遵循与人类相同的模式。Harrington表示:“这可能表明模型不是像人类那样利用环境(context)来执行检测任务。这些模型采取的策略可能有所不同。”
研究人员计划继续探索这些差异,以开发可以预测人类视觉边缘表现的模型。例如,这让AI系统可以警示驾驶员他们可能看不到的危险。他们还希望其他研究人员能够利用其公开的数据集进行更多的计算机视觉研究。此外,这项工作得到了丰田研究所(Toyota Research Institute)和MIT CSAIL METEOR奖学金项目的部分支持。
欢欢@盖世汽车供应链
悠悠@盖世汽车
豆豆@盖世汽车







