宁德生活圈

网站首页 互联网 > 正文

AI系统将如何理解人的价值?

2021-09-20 16:47:38 互联网 来源:
导读 机器学习算法已经能够比他们正在研究的人类更好地识别模式。这使他们能够在各种高风险情况下做出预测和决策。例如,电工利用IBM Watson

机器学习算法已经能够比他们正在研究的人类更好地识别模式。这使他们能够在各种高风险情况下做出预测和决策。例如,电工利用IBM Watson的预测能力来预测客户的需求。优步的自动驾驶系统决定了将乘客带到目的地的最快路线。Insilico medicine使用他们的药物发现引擎来识别新的药物路线。

AI系统会如何理解人类价值

随着数据驱动学习系统的不断发展,将很容易根据技术改进来定义“成功”,比如增加可以合成的数据算法数量,从而提高模式识别的效率。然而,要让机器学习系统真正成功,他们需要了解人们的价值观。更重要的是,他们需要能够权衡我们相互竞争的愿望和要求,理解我们最看重的结果,并采取相应的行动。

理解价值。

为了突出这种道德决定,我们的ML系统一直在与百家争鸣。芬兰研究员凯索塔拉(Kay Sotala)在基础研究所工作,轮流研究流量分析和自动驾驶汽车。收费公路是应该用来缩短5分钟的通勤时间,还是走更长的路线来节省成本更好?

AI系统会如何理解人类价值

回答这个问题并不像看起来那么容易。

例如,如果A节省5分钟,他宁愿选择收费5美元的收费公路,但如果收费10美元,他可能不想使用收费公路。另一方面,人B可能总是更喜欢选择最短的路线而不考虑价格,因为他们比任何人都更注重时间。

索塔拉指出,在这种情况下,我们最终要求ML系统确定人类更看重时间还是金钱。因此,关于快速采取哪种方式的简单问题,似乎变成了对竞争价值的复杂分析。有人可能会想,‘行车路线就是效率’。我会让AI系统告诉我最好的实现方式。“但是另一个人可能会觉得采用不同的方法有一定的价值,”他说。

事实上,机器学习系统必须权衡我们的价值,并在所有决策中做出权衡,但索塔拉指出,这在目前不是问题。系统要处理的任务非常简单,所以研究人员可以手动输入必要的价值信息。然而,随着人工智能代理的复杂性增加,索塔拉解释说,他们需要能够自己考虑和权衡我们的价值。

了解基于实用程序的代理。

谈到整合价值,索塔拉指出,问题在于智能主体如何决策。例如,恒温器是一个反射器。它知道什么时候开始加热房子由于预设的温度-恒温器会在温度下降到低于特定温度时打开加热系统,当温度高于特定温度时关闭加热系统。另一方面,基于目标的代理基于实现特定目标做出决策。例如,目标是购买购物清单中所有商品的代理将继续搜索,直到找到所有商品。

AI系统会如何理解人类价值

基于效用的代理比基于目标的代理领先一步。他们可以做出以下权衡:如今,买牛奶比买新鞋更重要。但是我离鞋店比杂货店近,两家店都会关门。在每个决策点,基于目标的代理将看到许多必须选择的选项。每个选项都与特定的“效用”或奖励相关联。为了实现他们的目标,代理遵循将使总回报最大化的决策路径。

从技术角度来看,基于效用的代理依赖于“效用函数”来做出决策。这些是系统用来综合数据、平衡变量和最大化收益的公式。最终,获得最大回报的决策路径是系统被教导选择完成其任务的路径。

虽然这些实用程序擅长发现模式和响应奖励,但索塔拉断言,当前基于实用程序的代理具有固定的优先级。因此,当谈到未来的AGI系统时,这些方法是不够的,因为它们会自动运行,所以有必要更深入地了解人类价值观何时以及何时会发生变化。

例如,一个人可能总是喜欢走更长的路线来避开高速公路和省钱,但如果他们心脏病发作并试图去急诊室,就不会这样做。当我们时间和金钱的价值发生变化时,人工智能代理应该如何期待和理解?这个问题更为复杂,因为正如索塔拉所指出的,人类往往独立评估事物的价值,而不管它们是否有持续和有形的回报。有时候,人类甚至会珍惜在某些方面可能造成伤害的东西。考虑一个重视隐私的成年人,但他的医生或治疗师可能需要访问亲密和深入的个人信息,这可能会挽救生命。AI代理是否应该公开私人信息?

最后,索塔拉解释说,基于效用的代理过于简单,没有深入人类。

行为的根源。“效用函数描述的是行为,而不是行为的原因……。假设我们已经大致了解该人所选择的内容,它们更多地是描述性模型。”尽管描述性模型可能会认识到乘客更喜欢省钱,但他们不理解原因,因此它将无法预期或确定其他值何时会超过“省钱”。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

免责声明: 本文由用户上传,如有侵权请联系删除!


标签: