“活跃在打假一线的AI:几分钟就能鉴定真假LV包”
“真相穿鞋的时候,谎言满街都是。 ”在现代社会,虚假信息、照片、视频、甚至商品等通过网络渠道迅速传播。 近日发布的《中老年人网络状况与风险网络调查报告》显示,约6成中老年人遭受过网络谣言的侵害。
有人说“谣言止于智者”,但是为了不被网络上的谣言和谣言所迷惑,不伤害,首先需要科学的认识,现在人工智能承担着它的作用。 那么,假的一线ai技术如何制造假的记忆呢? 这样的“本领”能应用于那些行业吗?
发布了大量信息,以前限制了谣言模式
“虚假新闻的产生主要有两个动机:一是利益驱动,根据年发表在科学上的研究,要达到同样的传播深度,虚假新闻的速度是普通新闻的20倍。 另一个是政治主导,在现有的网络经济中,有效传播代表着高额的经济价值,人工智能技术让不法分子左右公众对政治的认识和评价,控制舆论,威胁政治安全。 研究表明,在年美国总统选举期间,受访者平均每人每天接触4条虚假信息。 虚假信息被认为影响了年美国大选和英国脱欧的投票结果。 ”。 中科院计算副研究员、博士生导师曹娟日前在北京举办的women 世卫组织代码讲座上介绍。
为了减少虚假新闻,有必要对网络信息进行认证。 但是,大规模信息聚合平台每天的新闻发布量通常在50万件以上,显然完全依赖人工认证是不现实的,需要面向公众,建立高效的ai识别平台。
根据杜克大学信息研究中心的调查,截至2009年2月,全球活跃运营的事实审计类信息创业项目有149个,其中北美和欧洲74个,亚洲7个。 另一方面,在海外社会交流平台上,有用于显示新闻可信度的自动化可信度判断插件。
了解目前国内已经有的主要谣言,辟谣后平台基本依赖专家识别模式,其存在是一定的问题:要发现线索主要依赖客户举报,数量有限,时间长短不强,往往事半功倍。 另外,信息认证速度有待提高。 据facebook统计,专家辟谣认证模型平均滞后3天,错过了辟谣的最佳时机。 由于类别限制,专家只能在自己擅长的行业造谣,行业专家库的多样化决定了人工谣言平台的能力上限。
为了提高谣言的效率,目前中科院计算机研究所、阿里、腾讯等多家公司和机构已经知道了人工智能的谣言。 介绍说,曹娟从2010年开始就致力于基于人工智能技术的虚假新闻检测研究,知道ai谣言的公众平台可以自动发现可疑线索,进行认证,大大降低谣言可能带来的危害。 基于数据驱动的方法,通过机器学习算法辅助人工审查,只需1分钟就可以警告疑似谣言,平台可以不断挖掘各种谣言的特征,自动识别各种谣言。
但值得指出的是,“虚假新闻识别是一个高度复杂的问题,另一方面虚假定义不确定,需要不明确的塑造。 另一方面,标记很困难,需要小样本学习方法。 目前,机器学习算法的精度并不能完全代替人类,但可以帮助人类更迅速、更有效地审计信息。 ”。 曹说。 正如扎克伯格所说,“如果要完全依赖ai审查复制,可能还需要5—10年”。
免责声明:凤凰报业网凤凰分类目录网致力于打造中国专业的网站分类目录平台,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站将予以删除。