宁德生活圈

网站首页 财经 > 要闻 > 正文

该AI可以预测在线拖钓发生之前

2020-01-21 15:22:50 要闻 来源:

您如何控制在线巨魔?禁止他们?需要真实姓名吗?

斯坦福大学计算机科学博士后研究员Srijan Kumar博士正在开发一种可预测在线冲突的AI。他的研究使用数据科学和机器学习来促进健康的在线互动,并遏制欺骗,不当行为和虚假信息。

目前,他的工作已部署在印度电子商务平台Flipkart中,该平台可用来发现假评论者。在USC进行健康在线互动讲座之前,我们与Kumar博士进行了交谈。

Kumar博士,您如何使用数据科学和机器学习来应对在线骚扰?您的系统如何识别巨魔?

在我的研究中,我建立了数据科学和机器学习方法来解决在线不当行为,这种不当行为以虚假信息和恶意用户的形式出现。我的方法有双重目的:首先是表征其行为,其次是在对其他用户造成损害之前对其进行检测。我已经能够调查各种各样的在线不良行为,包括欺诈性评论,恶作剧,在线巨魔以及滥用多个帐户等。

您如何教AI发现这些模式

我开发统计分析,图形挖掘,嵌入和基于深度学习的方法来表征正常行为的外观,然后使用它来识别异常或恶意行为。通常,我们可能还会有一些恶意行为的已知示例,在这种情况下,我将创建监督式学习模型,在这些模型中,我将这些示例用作训练数据,以在其余模型中识别出类似的恶意实体。

您的研究成果目前正在Flipkart中使用。他们试图解决什么问题,以及如何衡量结果?

我在Flipkart上帮助解决的关键问题是识别平台上的虚假评论和虚假评论者。这是在所有平台上普遍存在的问题;最近的调查估计,多达15%的在线评论是假的。因此,至关重要的是要识别并清除虚假评论,因为我们的决定受消费者的影响。

这里叫什么方法?

我的方法称为REV2,它使用用户评论产品的评论图来识别欺诈者,这些欺诈者对低质量产品给予高评分,而对高质量产品给予低评分。REV2将我们的建议与以前发现的假审稿人案例进行比较。

当不良行为即将发生时,AI是否有可能留意社交网络并发出警报?这种纯粹的基于模式的分析与感知数据处理还是完全不同?

通过从以前的此类案例中学习,可以主动预测何时可能出现问题。例如,在我最近的研究中,我表明可以准确预测Reddit在线平台中的一个社区何时会攻击/骚扰/拖曳另一个社区。这种现象被称为“旅费”,我向人们展示了旅费减少了受害社区未来的参与度。这对用户及其交互有害,这需要避免它们的方法。因此,我创建了一个基于深度学习的模型,该模型使用文本和社区结构来高精度预测某个社区是否会攻击另一个社区。这样的模型非常实用,因为它可以提醒社区主持人注意即将发生的攻击。

您是否在“微调”中看到了对您的工作的逻辑推断,以提示用户在起诉之前清理其行为?类似于班上最前面的一位老师,在他们陷入犯罪策划的帮派之前,对后排的麻烦制造者保持警惕吗?

绝对!一个自然而激动人心的后续工作是如何阻止不良行为者进行恶意行为并鼓励每个人保持良性。这将帮助我们为每个人创建一个健康,协作且更具包容性的在线生态系统。要实现此目标,存在许多有趣的挑战,需要新的干预方法和更好的预测模型。促进更好的在线对话并促使人们成为更好的自我,这将是我前进的主要方向之一。

您是否有在线骚扰的亲身经历,或者这是一个更有趣的AI问题可以为您解决?

我遵循这一研究方向的主要原因之一是看到我的一些朋友被社交媒体巨魔骚扰。这导致寻找非算法方法来解决此问题。作为一项艰巨的任务,它激起了我内心的科学家的兴趣,我最终学会了创建数据科学和机器学习方法来帮助解决这些问题。

您正在与DARPA资助的120万美元项目“主动社会工程防御”(Active Social Engineering Defence)合作,该项目将持续到2022年。该机构要求您证明什么?

在这个项目中,我们正在研究恶意行为者如何对毫无戒心的受害者进行社会工程攻击。社交工程攻击是非常细微和复杂的个性化攻击,旨在损害敏感信息。因此,我们要回答的关键问题是:我们可以预测何时发生社会工程学攻击;以及我们如何防御他们?

最后,作为科学家,您对预测人类行为的真正兴趣是什么?您是否感到我们越来越接近最终使我们成为“壁虱”的原因了?

人类行为具有高度的动荡性和不可预测性,这使其变得有趣且具有挑战性。话虽如此,我的确感到AI在理解人类行为方面确实越来越好。举一个例子,推荐系统在预测我们想要的东西方面比几年前明显更好。但是,这个难题中需要解决的一个关键问题是预测恶意实体在被捕获并被禁止后将如何重现自身。因此,我热衷于构建新的机器学习和AI模型来解决这个问题。


版权说明: 本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。


标签:

热点推荐
热评文章
随机文章