业界新鲜事
网络是个自由的空间,也成为语言暴力滋生的温床。对于网络运营商来说,要在成千上万的网络言论中,区分出恶意的内容需要大量的金钱、劳动力和时间。不少网站干脆直接关闭了评论区,但在这个讲求互动的媒体时代,这并不是最佳解决方案。
谷歌公司目前正在解决这个问题,并在近日公开发布了一项名为Perspective (洞察)的人工智能工具,可以给网络发言评定恶意程度。
据了解,Perspective使用机器学习自动检测网络侮辱、骚扰和辱骂言论。在示范界面中输入一个句子或短语,AI可以立即评定其恶意程度,结果以“和攻击性评论相似度为百分之几”的形式显示,比任何关键字黑名单和人类管理员都要快。
Perspective可以接入现有网站,帮助管理员获取评论的得分情况。但Perspective不会决定如何处理恶意的评论。是否标记、会不会删除,或者是开发类似的打分系统,处理方式由内容发布商决定。
为了建立评分模型,谷歌研究团队获得了来自《纽约时报》的1700万条读者评论,维基百科编辑了页面的数百万条讨论和其他合作网站的内容,并聘请了数千人来打分,每个评论会给10个人来评判。这个工具已经在《纽约时报》《经济学人》和《卫报》等网站测试,以期改善评论部分。目前测试需要邀请,年内接口将放开。
与以往方法的不同之处在于,新方法主要侧重于语言的评估,而非观点的评判。也就是说,不受欢迎的想法是可以接受的,只要清楚理性地提供论据即可。影响打分的是情绪化和攻击性的语言。这保护了不同观点的表达,同时有助于理性讨论环境的营造。
也就是说,情绪化的短句子攻击指数更高,而有论据支撑的长句子评分会降低。至于论据是不是真相,Perspective暂时还不能判断——这项工作还是读者自己查证比较好。
不过,在人类深奥的语言文字面前,Perspective也遇到了很多问题。首先是文法上的:一些字词在不同社群内有着不同的内涵。对特定群体有侮辱性的词,在没有上下文的情况下判断评论者的立场显然很难。其次,对社交媒体常见的略缩语、替换词、拼写重复等网友们的文字游戏,它目前也没有办法清晰理解。
观察人士认为,这项工具可以帮助促进更理性的互联网环境,但也有批评者称,这是在以算法干扰公共讨论,损害言论自由。因为为了提高评论的评分,用户要么会开始自我审查,要么转而使用其他的服务,或者索性弃用。
对此,谷歌团队表示,工具不是为了绕过人类的判断,而是把内容标记出来呈现给管理员,并且Perspective目前还是一项还在进行中的工作,需要人们为它作出贡献才会有所改善。他们希望它可以用于英语以外的其他语言。(据环球网)