宁德生活圈

网站首页 互联网 > 正文

在可预见的未来 人工智能还没有做好有效管理在线内容的准备

2021-09-14 20:28:02 互联网 来源:
导读 Ofcom和剑桥咨询公司联合完成了一份报告,研究人工智能支持的在线内容审查的有效性。世界各国政府对社交网络和通信服务施加越来越大的压力

Ofcom和剑桥咨询公司联合完成了一份报告,研究人工智能支持的在线内容审查的有效性。

世界各国政府对社交网络和通信服务施加越来越大的压力,要求对发布在其中的内容负责。社会本身越来越意识到直播恐怖袭击、网络欺凌和政治操纵带来的危险。

人工智能尚未准备好在可预见的未来有效地管理在线内容

对于一些拥有数十亿用户的平台来说,手动管理所有发布的内容是不可行的。上传非法内容后,人们通常需要举报并等待人类宿主的决定(人类宿主有时在接触此类内容后需要治疗)。

Ofcom和剑桥咨询公司的报告表明,人工智能可以通过以下主要方式帮助减轻对主机的心理影响:

改变他们接触的有害物质的含量和种类。

有些内容会自动模糊,主持人可以根据需要选择查看,以做出决定。

人们可以“问”AI关于要准备的内容的问题,或者知道对他们来说是否特别难,这可能是由于过去的个人经历。

手动审查内容速度很慢,这通常意味着数百万人在删除有害内容之前先将其删除。尽管大多数人工智能审计实施仍需要人工监督,但内容检测方面的一些进展有助于加快内容的标记和删除。

人工智能尚未准备好在可预见的未来有效地管理在线内容

本月早些时候,脸书旗下的Instagram宣布对人工智能驱动的审计系统进行改进,以防止麻烦的内容被发布。虽然以前仅限于评论,但Instagram现在会问用户:“你确定要发布吗?”任何它认为可能给别人带来麻烦的帖子。

作为英国的电信监管机构,Ofcom的报告应该有助于形成可行的政策,而不是政治家的一般要求,而不是真正理解这些东西是如何工作的(有人记得禁止加密和/或故意制造后门的呼吁吗?)

该报告从本质上证实,在可预见的未来,不可能进行有效的全自动内容审计。

人工智能尚未准备好在可预见的未来有效地管理在线内容

全自动内容审核出现问题的主要原因之一是,虽然一些有害帖子可以通过单独的分析来识别,但其他内容需要对上下文有很好的理解。例如,研究人员指出,对于今天的AI温和解决方案来说,很难解决国家法律中的地区和文化差异,以及什么是社会可接受的,但对于当地的人类宿主来说,这是微不足道的。

有些内容比其他内容更容易分析。照片和预先录制的视频可以在发布前进行分析,而直播尤其困难,因为看似无辜的场景很快就会变得有害。

剑桥咨询集团的报告称:“人类主持人将继续被要求审查高度关联和细致入微的内容。”“但是,基于AI的内容审查系统可以减少人工审查的需要,并减少查看有害内容对他们的影响。”

郑重声明:本文版权归原作者所有。转载文章只是为了传播更多的信息。如果作者信息标注有误,请第一时间联系我们修改或删除。谢谢你。


免责声明: 本文由用户上传,如有侵权请联系删除!


标签: