KAIST开发出受大脑启发的新方法 可以让AI适度地怀疑自己从而避免过度自信
分享
盖世汽车讯 当前大多数人工智能(AI)系统通过机器学习和深度学习来学习完成任务。机器学习是一种计算方法,使模型能够发现数据中可用于预测的模式。而深度学习则是机器学习的一个子集,利用多层神经网络,能够自主地从非结构化数据中提取特征并学习复杂的模式,有时甚至无需人工监督。
许多采用这些方法训练的AI系统还会为其预测结果生成置信度评分。这些评分本质上是对特定预测准确概率的估计。以往的研究表明,在多数情况下,AI系统过于自信,会给错误的答案赋予过高的置信度评分,甚至将不准确的信息当作事实呈现。这限制了其可靠性,尤其是在高风险应用中,因为错误的预测可能会造成严重的后果。
据外媒报道,韩国科学技术院(Korea Advanced Institute of Science and Technology,KAIST)的研究人员提出了一种受大脑启发的新型训练方法,有望生成更贴近实际的AI置信度估计。该策略使用随机噪声(即不包含任何有意义模式的数据)和任意输出对人工神经网络进行短期训练,使其在学习特定任务之前,能够学会生成更贴近实际的置信度估计。相关研究发表于期刊《Nature Machine Intelligence》。

图片来源:期刊《Nature Machine Intelligence》
研究人员Jeonghwan Cheon和Se-Bum Paik在论文中写道:“不确定性校准,即预测置信度与准确度的匹配,对于机器学习系统在实际应用中的可靠部署至关重要。然而,目前的模型往往无法实现这一目标,产生的响应要么过于自信,要么不准确,甚至可能是捏造的。研究表明,深度学习中广泛采用的初始化方法——长期以来被视为标准做法——实际上是过度自信的主要来源。”
AI的置信度与预测准确度保持一致
AI系统预测的准确度与其对预测结果的置信度之间的不匹配可能造成严重问题。对于旨在应用于医疗领域的基于AI的诊断工具而言,这种不匹配可能导致误诊。在自动驾驶汽车领域,则可能导致事故和与其他车辆的碰撞。
论文作者表示:“为了解决这个问题,我们引入一种受神经发育启发的预热策略,无需预处理或后处理即可从根本上解决与不确定性相关的问题。在我们的方法中,网络首先在随机噪声和随机标签上进行简短训练,然后再接触真实数据。这种预热阶段可以实现最佳校准,确保在后续训练过程中置信度与准确度始终保持高度一致。”
研究人员的方法是,在向模型输入真实且特定任务的数据之前,增加一个简短的预热训练阶段。在这个阶段,AI模型会接收完全随机的数据,并输出与这些数据无关的结果或答案。初始训练完成后,模型会使用与它正在学习完成的任务相关的数据集进行常规训练。
研究人员使用该方法训练了一个模型,然后将其性能与使用标准机器学习方法训练的模型进行了比较。他们发现,完成预热训练的模型似乎不太容易出现过度自信的情况,针对错误预测生成的置信度评分较低,但针对正确预测生成的置信度评分则较为合理。
Cheon和Paik写道:“由此产生的网络在识别‘未知’输入方面表现出很高的能力,为分布内和分布外情境下的不确定性校准提供了稳健的解决方案。”
受大脑启发的训练策略能提升预测准确度
未来,该研究团队开发的策略有望得到进一步完善,并应用于更广泛的AI模型。这将有助于更深入地评估其在更广泛的实际AI应用中的潜力。
这种新方法的关键优势在于,它无需任何复杂的工程设计或额外的处理步骤,例如训练数据集的后处理。它仅需引入一个简短而有效的预学习热身环节。
Cheon和Paik的最新研究成果最终有望促进更安全、更可靠的AI系统的开发,这些系统能够更准确地估计其预测的准确概率。这反过来又有助于在错误预测可能造成严重后果的场景中部署基于AI的工具,例如临床环境或其他高风险场景。
欢欢@盖世汽车供应链
悠悠@盖世汽车
豆豆@盖世汽车






