您的位置:首页 > 数据 >
人工智能工具可以通过分析用户的互动和评论来改善假新闻检测
来源: 2021-12-09 15:04:14

在预印本服务器Arxiv.org上发表的一篇论文中,隶属于Microsoft和Arizona State University的研究人员提出了一种利用虚假社会监督技术来检测假新闻的方法。他们说,即使在没有标签示例的情况下,也可以通过训练伪造新闻检测AI的方法,薄弱的社会监督为探索用户交互方面如何表明新闻可能具有误导性打开了一扇门。

根据皮尤研究中心(Pew Research Center)的数据,2018年约68%的美国成年人从社交媒体获得了新闻-令人担忧的是,考虑到有关大流行的错误信息,例如继续传播。从Facebook和Twitter到Google的公司都在追求自动检测解决方案,但由于其时事和风格的多样性,假新闻仍然是一个移动的目标。

在4月发表的一项研究的基础上,这项最新研究的合著者指出,监管不力(在嘈杂或不精确的来源会提供数据标记信号的地方)可以提高假新闻检测的准确性,而无需进行微调。为此,他们建立了一个名为“假新闻三关系”(TiFN)的框架,该框架将社交媒体用户及其联系建模为检测假新闻的“交互网络”。

交互网络描述了实体之间的关系,例如发布者,新闻故事和用户。给定一个交互网络,TiFN旨在基于人们倾向于与志同道合的朋友进行交互的观察,嵌入不同类型的实体。在做出预测时,该框架还考虑到以下事实:关联用户更有可能在新闻中分享相似的兴趣,政治偏见程度高的发布者更有可能发布虚假新闻,而信誉低的用户则有可能传播假新闻的可能性更大。

为了测试TiFN薄弱的社会监督能否帮助有效地检测假新闻,该团队针对一个Politifact数据集对它进行了验证,该数据集包含120个真实新闻和120个可验证的虚假新闻,在23865个用户之间共享。与仅考虑新闻内容和某些社会互动的基线检测器相比,研究人员报告说,即使在有限的弱势社会监督下(新闻发布后的12小时内),TiFN的准确率也达到了75%至87%。

在另一个实验中,涉及一个名为Defend的单独的自定义框架,研究人员试图使用新闻句子和用户评论来解释为什么一条新闻是伪造的,作为一个微弱的监督信号。他们对第二个Politifact数据集进行了测试,该数据集包含145个真实新闻和270个虚假新闻,在Twitter上有68,523位用户发布了89,999条评论,他们认为Defend的准确率达到90%。

“ [借助发布者偏见和用户信誉方面的弱势社会监督,检测性能要优于没有利用弱势社会监督的情况。我们还观察到,当我们删除新闻内容组件,用户评论组件或新闻内容和用户评论的共同关注时,性能会降低。[这]表明从用户评论和新闻内容中捕捉弱的社会监督之间的语义关系很重要。”研究人员写道。“ [w] e可以看到,在一定范围内,较弱的社会监督会导致更大的绩效提升,这表明使用弱的社会监督的好处。”

相关文章
富德生命人寿河南分公司三门峡中支开展第十五届客户节红色主题亲子实践活动

富德生命人寿河南分公司三门峡中支开展第十五届客户节红色主题亲子实践活动

为庆祝建党100周年,6月19日,富德生命人寿河南分公司三门峡中支在河南振宇红色教育基更多

2021-12-09 15:27:53