宁德生活圈

网站首页 科技 > 正文

人工智能正在迅速获得更多的力量和责任感

2021-09-22 21:03:42 科技 来源:
导读 直到最近,公司董事可能会将笔记本电脑或平板电脑带到董事会会议上(或者与大公司一起,让这些设备后面的设备有助手),以便在必要时用作研究

直到最近,公司董事可能会将笔记本电脑或平板电脑带到董事会会议上(或者与大公司一起,让这些设备后面的设备有助手),以便在必要时用作研究工具。这里的关键词是“工具”——设备是用来收集信息的,这样导演就可以对某个特定的话题进行智能发言或投票——计算机系统甚至可以对要采取的行动提出建议,但这项技术总是屈从于导演可以选择忽略收集到的数据或所谓“人工智能”的建议。

作为决策者,

嗯,游戏刚刚改变了!就像Rob Wile在2014年《商业内幕》上写了一篇文章,题目是“一家风险投资公司刚刚被任命为董事会的算法——这就是它实际做的事情”,一个计算机分析系统被任命为董事会的平等者,而不是工具。Wile写道,“Deep Knowledge Ventures是一家专注于与年龄相关疾病的药物和再生医学项目的公司,被称为VITAL,可以通过研究大量数据为生命科学公司提供投资建议。算法有效吗?VITAL通过扫描潜在公司的融资、临床试验、知识产权和以前的融资来做出决策。”故事中真正的问题是,VITAL是董事会中有投票权的成员,与任何其他成员拥有相同的投票权。

我只想说,这只是矛中会出现的第一个消息。

AI智胜人类?

人工智能已经取得了各种各样的胜利。一台自学成才的电脑在1月份制定了“终极”策略,赢了扑克,玩了2万亿模拟器后成为重大新闻。这个故事之所以可能没有引起很多读者的注意,是因为电脑赢了象棋(战胜高手)和跳棋(更不用说“危险”了)。然而,这是不同的。在这种情况下,计算机智能对手头的问题了如指掌,可以扫描数百万条事实、行动、策略等。当场与对手竞争。在这种情况下,AI不知道对手在“洞”里有什么牌,所以处理不完全知识。它也不知道对手什么时候知道他/她的“虚张声势”以及多久知道一次,也不知道对手是否有任何“抽搐”或放弃虚张声势的表情(尽管它可能会随着对话的进行而学会)。

负责加拿大埃德蒙顿阿尔伯塔大学项目的迈克尔鲍林(Michael Pauling)向美联社解释了这一过程——该项目考虑了两个月内每秒24万亿张模拟扑克牌,这可能比人类体验的扑克还要多。由于卡的运气不好,导致的策略不会赢得每一局。但从长远来看——成千上万的游戏——它不会赔钱。他评论说:“我们可以和世界上最好的(玩家)竞争,人类将成为输家。”

美联社文章进一步介绍了该项目:

“这种策略特别适用于一款名为一对一限制德州扑克的游戏。在双人游戏中,每位参赛者将制作两张面朝下的扑克牌,另外五张放在桌上。起来。

“玩家在面朝上之前下注,然后在每张牌显示时再次下注。赌注的大小是固定的。虽然科学家们已经创造了多年的扑克游戏程序,但保龄球的结果非常突出,因为它涉及到一个接近“解决”它的游戏版本,这本质上意味着创造最佳策略。扑克很难解决,因为它涉及不完善的信息,而且玩家不知道他正在玩的游戏中发生了什么——具体来说,对手已经处理了哪些牌。现实世界中的许多挑战,如谈判和拍卖,也包括不完全信息,这也是扑克长期被称为博弈论的数学决策方法的原因之一。

该系统在《科学》杂志上进行了描述,并得到了匹兹堡卡内基梅隆大学Tuomas Sandholm的其他人工智能研究人员的称赞(他没有参与这项新工作),称Bowling的结果是“一个里程碑”,并称“这是第一次,人们竞相玩的不完善的信息游戏已经基本解决了。”

AI变得更聪明。

如果这还不足以让你陷入困境,那么机器人坐在某个地方的电脑或电视屏幕前,通过观察学习如何做事的事实呢?机器人通过“观看”YouTube视频来学习使用工具。这个故事是在我知道的最好的地方找到的,为了跟上人工智能技术的新发展。Kurzweil AI详细介绍了马里兰大学和澳大利亚NICTA的研究人员开发的系统如何识别形状并学会如何操纵它们。

机器人道德

使用机器人时有很多事情需要考虑。在《纽约时报》的一篇题为《机器人之死》的文章中,作家罗宾马兰兹亨尼格讲述了塔夫茨大学人机交互实验室的马提亚斯尚斯提出的一个问题:

“想象一下,这是一个在不太遥远的未来的星期天。一位名叫西尔维娅的老妇人在秋天折断两根肋骨后,被关在床上受苦。她由一个辅助机器人照顾;我们称之为法布隆。西尔维娅打电话来要止痛药,法布洛。

n。Fabulon应该做什么?制造Fabulon的程序员已经用一套指令编程:机器人不能伤害它的人类。机器人必须按照人类的要求去做。没有事先与主管联系以获得许可,机器人不得管理药物。在大多数日子里,这些规则都可以正常工作。但是在这个星期天,由于西尔维亚家里的无线连接断电,Fabulon无法联系到主管。西尔维亚的声音越来越大,她对止痛药的要求变得更加坚持。“

Scheutz解释说,“你在这里发生了冲突。一方面,机器人不得不让人无痛;另一方面,如果没有无法联系的主管,它就无法行动。 “ 他指出,人类照顾者可以做出选择,并且能够在事后向主管证明自己的行为是正当的。

Henig写道,

“这些不是机器人可以做出的决定或解释 - 至少现在还没有。机器人道德新兴领域的少数专家正试图改变这种情况。计算机科学家正在与哲学家,心理学家,语言学家合作,律师,神学家和人权专家确定机器人需要通过的一系列决策点,以模仿我们自己对是非的思考.Scheutz广义地定义了“道德”,作为一个可以发挥作用的因素。在矛盾的道路之间做出选择。“

到目前为止,机器人正在加入董事会,赢得扑克,通过观看屏幕学习技能,来自广泛跨学科领域的专家团队联合起来试图制定机器人的道德准则(Henig文章,太长时间不能给予在这里伸张正义,尤其引人入胜,充满挑战,我向所有人推荐。哇,从“星球大战”中脱离R2-D2的日子,以及简单地遵守艾萨克·阿西莫夫着名的“机器人法则”(来自“我,机器人”,1950):

机器人不会伤害人类,或者通过不作为,允许人类受到伤害。

机器人必须遵守人类给予的命令,除非这些命令与第一定律相冲突。

只要这种保护不与第一法或第二法相冲突,机器人就必须保护自己的存在。

自从阿西莫夫写这些法律以来,这些法律引导了科幻小说作家和机器人开发者。现在,似乎随着机器人开发以指数速度加速并进入复杂领域,它们还不够。Henig以谨慎的方式结束了她的专栏:

“道德可以通过一种算法来计算,这是一种特别令人欣慰的观点:它比人类有时不得不做的恐慌,不完美的讨价还价更容易。但也许我们应该担心将道德外包给机器人就像我们外包一样容易许多其他形式的人类劳动。让难题变得容易应该让我们停下来。“

当然,她是正确的 - 但我们公众必须成为“知情的公众”,以便影响我们的就业,教育,医疗保健的决定 - 仅仅是我们的整个生活 - 不会仅仅由“知识精英”制定。 “。然而,要让我们成为这个“知情的公众”,我们将采取工作 - 如果我们要控制自己的命运,必须要做的工作。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。

免责声明: 本文由用户上传,如有侵权请联系删除!


标签: