天津在线

首页> 资讯中心> 天津> 正文

人工智能是虚假新闻的“克星”

天津日报报道 当前,甄别和控制网络虚假信息传播已经成为一个世界性话题。虚假信息不仅令我国网络空间深受其扰,一些西方国家也日益意识到它的危害。去年美国大选中,不同利益集团相互指责和控诉对方制造和传播虚假信息,吃相难看,颜面尽失。

虚假信息及低俗内容,在互联网环境中跨地域大规模快速传播的现象,主要出现在拥有海量用户的互联网应用平台产生以后。每个用户都可以在这个平台上发布信息,并在平台内部和平台之间快速传播信息。在一定的利益动机和社会心理机制作用下,一些平台用户试图发布虚假信息及低俗内容谋取各种利益。由于这类信息和内容往往流传甚快甚广,使得社会原有的甄别及防范机制难以及时作出反应。

对于这一新问题,有多种解决思路。比较传统的方法,诸如提高公众传播素养,更多发挥传统媒体把关功能,加大对虚假信息及低俗内容发布者的处罚力度,加重平台责任等。

然而,一些业界人士担心人工智能无法处理复杂的价值判断问题,也有互联网人士认为算法没有价值观。其实,人工智能的算法本身就是根据特定领域的规律和规则制定的,在这些规律和规则中,就蕴含着价值选择与判断。在确立模型并不断学习之后,执行算法的机器完全能够具有超越人脑的能力,这在不久前围棋的人机大战中已经得以验证。互联网企业的反应,却是更多地借助技术手段。如脸谱推出“事实核查工具”,邀请用户通过下拉菜单将他们看到的可疑新闻报道在该平台上进行标记。第三方事实核查人员随后分析标出的报道,并判定其为真实报道还是虚假新闻;谷歌(微博)新闻实验室发起成立了一个名为“FDN”的新闻学术和技术联盟,研究方向主要是社交媒体新闻的原创判断和真实性认证。我国的互联网平台也作出了多方努力。例如,北京字节跳动科技公司在“今日头条”平台上,依靠人工智能技术,模仿人脑机制,对低俗图片的拦截率较之前纯人工拦截提高了73.71%;针对“标题党”现象,一些网站构建了“人工+机器”的模式构建防火墙,对敏感词、标题党和虚假信息进行技术性拦截。

此外,还可以通过对人们网络信息接收和接受的心理特征及行为的分析,建立模型,探索如何通过算法干预这一过程,阻断虚假及低俗内容的传播,减低其传播效果。来源:《人民日报》

版权声明

一、凡注明来源为"天津在线"的所有作品文字、图片、音视频、美术设计和程序等作品,版权均属天津在线或相关权利人专属所有或持有所有。

二、未经本网书面授权,不得进行一切形式的下载、转载或建立镜像。否则以侵权论,依法追究相关法律责任。

三、凡本网注明"来源:XXX(非天津在线)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

四、转载声明:如本网转载作品涉及版权等问题,请在作品于本网发表之日起30日内及时同本网联系,否则视为放弃相关权利。

免责声明:本文仅代表作者个人观点,与天津在线无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

登载此文只为提供信息参考,并不用于任何商业目的。如有侵权,请及时联系我们删除:jubao@72177.com

今日天津