宁德生活圈

网站首页 科技 > 正文

如果你的自驾车一定要选择撞谁

2021-09-13 13:10:04 科技 来源:
导读 大众陷入大数据和人工智能的困惑,爱恨交织。新闻中令人兴奋的新技术和数据对双方都产生了重大影响。随着伦理和软件自治问题的日益紧迫,共

大众陷入大数据和人工智能的困惑,爱恨交织。新闻中令人兴奋的新技术和数据对双方都产生了重大影响。随着伦理和软件自治问题的日益紧迫,共识仍然难以达成。

如果您的自动驾驶汽车必须选择击中谁

麻省理工学院工程系统教授斯图尔特马尼克(如图)说:“道德问题的麻烦在于,它们通常没有一个好的、明确的答案。”这是因为AI中几乎没有玫瑰没有刺,没有潜在的陷阱,也没有回报。我们都喜欢预测下一个问题的应用中的智能算法。他们需要大量的数据集进行训练。普通消费者觉得这个对我有好处,只要不是我的数据。

Madnick采访了Dave Vellante,并表示由Paul Jilin、theCUBE和SiliconANGLE Media的移动即时流工作室共同主办的麻省理工CDOIQ研讨会在剑桥举行。他们讨论了面临人工智能的制造商和消费者(参见完整的采访记录,了解这里的硬性道德问题)。

如果您的自动驾驶汽车必须选择击中谁

事实是,根据Madnick的说法,大数据或AI的缺失不会损害数据隐私或主权。我们仍然没有经验来判断可接受的成本效益比。

Mednik说:“我们做的几乎每一项研究都涉及这样的(道德)问题,人们都在投票,他们几乎总是分散在各个方面,因为其中任何一个都是错误的决定。”“那么哪个错误的决定是最不坏的呢?”

Madnick指出,除了隐私问题,与自动驾驶相关的问题人工智能越来越多地与自动驾驶的方法相关。在麻省理工学院,马尼克教授学生技术伦理。自动驾驶的主题带来了一些困难。

比如效用理论指出,如果一辆车一定要撞一个人或多人,最好撞的人最少。以自动驾驶汽车中驾驶员可能面临的碰撞为例。你可以编程让一辆车撞到墙上,这可能会杀死司机、一个带着婴儿车过马路的女人或一群三个男人。第一个选择是杀死司机,第二个选择是女人和婴儿,最后一个是三个男人。

如果您的自动驾驶汽车必须选择击中谁

Madnick解释说,整个班级通常不会对这种安排100%满意。显然,AI还有很多道德问题需要解决。

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: