宁德生活圈

网站首页 互联网 > 正文

研究人员发布了一份可解释的人工智能调查

2021-09-12 06:51:09 互联网 来源:
导读 研究团队IBM Watson和亚利桑那州立大学发布的一项调查解释了人工智能规划(XAIP)的工作。该调查涵盖了67篇论文的工作,并得出了该领域的

研究团队IBM Watson和亚利桑那州立大学发布的一项调查解释了人工智能规划(XAIP)的工作。该调查涵盖了67篇论文的工作,并得出了该领域的最新趋势。

研究人员发表可解释的AI调查

由亚利桑那州立大学Yochan实验室的Subbarao Kambhampati教授领导的团队将他们的评论集中在自动规划系统领域:那些生成旨在实现目标状态的行动序列(或计划)的系统。解释性计划系统可以回答为什么选择特定的行动或行动序列的问题。该团队指出,该领域的可解释系统可以分为基于算法的、基于模型的或基于计划的,尽管近年来所有类型的研究都在增加,但大多数工作都是在基于模型的系统上完成的。

在美国国防高级研究计划局2016年倡议的推动下,可解释人工智能(XAI)近年来一直是一个活跃的研究课题。机器学习在计算机视觉和自然语言处理等感知问题中的广泛应用导致了分类器可解释技术的发展(包括LIME和AllenNLP Relate)。感知是决定环境当前状态的重要技能,自主系统(如机器人、无人驾驶汽车甚至是玩游戏的AI)也必须做出决策。这些AI系统往往采用计划,从而为AI实现目标采取一系列行动。

研究人员发表可解释的AI调查

解释性AI规划(XAIP)系统可以回答关于其规划的问题;例如,计划中包括或不包括具体行动的原因。该团队将系统分为基于算法、基于模型或基于计划的系统。与最终用户相反,基于算法的解释通常对系统设计者调试算法最有帮助。基于计划的描述使用抽象或抽象,使用户能够理解“在更长的时间范围和更大的状态空间中”运行的计划。大多数研究都是基于对模型的解释,考虑到用户的“计算能力”比AI低,通常会有不同于“基本事实”的思维模型。对于这些系统,解释协调用户需求。

研究人员发表可解释的AI调查

DARPA的XAI计划指出,可解释系统的动机之一是增强用户对人工智能产生的结果的信任。然而,Kambhampati的研究团队指出,解释过程也可以被“劫持”,以产生一种“不再是真实的,而是用户认为令人满意的任何东西”的解释。

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: