宁德生活圈

网站首页 互联网 > 正文

微软科学家称负责任的人工智能取决于模型的可见性

2021-09-15 05:42:37 互联网 来源:
导读 人工智能的兴起警告了人们有偏见的、欺骗性的和恶意的应用。资深机器学习科学家、微软云倡导者Francesca Lazzeri表示,但有一种方法可以

人工智能的兴起警告了人们有偏见的、欺骗性的和恶意的应用。

资深机器学习科学家、微软云倡导者Francesca Lazzeri表示,但有一种方法可以避免偏差,确保负责任的AI。

微软科学家说负责任的人工智能取决于模型的可视性

Lazzeri说:“在我们的团队中,我们有一个名为“可解释工具包”的工具包,这实际上是一种打开机器学习模型,了解不同变量和不同数据点之间不同关系的方法。“这是一个简单的方法来理解为什么你的模型可以为你提供具体的结果。”

除了在微软工作,Lazzeri还是医生的导师。麻省理工学院的博士后。

在佛罗里达州奥兰多市举行的微软Ignite活动上,她与SiliconANGLE Media移动直播工作室的联合主持人SCU米曼和丽贝卡奈特进行了交谈。他们讨论了负责任的AI的发展路径和微软最近在机器学习中发布的版本。

微软科学家说负责任的人工智能取决于模型的可视性

Lazzeri说,在AI应用中发现的大多数偏差问题都是从数据开始的。她说:“你必须确保数据足以代表你的人工智能应用的总体目标。”“很多时候,客户只是使用自己的数据。查看外部数据类型也很有帮助。”

避免问题的另一种方法是与业务和数据专家一起检查模型。“有时我们有数据科学家在孤岛上工作;他们没有真正传达他们在做什么,”Lazzeri指出。“您必须始终确保数据科学家、机器学习科学家和数据专家、业务专家和每个人都密切合作……以确保我们了解自己在做什么。”

对于刚刚开始机器学习之旅的公司来说,第一步是确定必须回答的业务问题。Lazzeri解释说:“一旦想到这个问题,第二步就是要知道他们是否有正确的数据来支持流程所需的内容。”

微软科学家说负责任的人工智能取决于模型的可视性

之后,重要的是能够将业务问题转化为机器学习问题。Lazzeri说:“最后,您必须始终确保可以部署这种机器学习模型,以便为部署和我们所说的操作部分做好准备。“现在确实是您为机器学习解决方案增加商业价值的时候了。”

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: