谷歌本周报告了其在YouTube上标记和删除暴力极端主义视频的努力所取得的进展,尽管它承认一路走失。在10月17日YouTube博客的更新中,谷歌表示,其自动机器学习工具在删除违反内容政策的视频内容方面越来越好。该公司还吸引更多人来审查可能令人反感的视频,并对不明显违反政策但属于极端极端主义的视频实施了更严格的标准。
谷歌表示,过去一个月从YouTube删除的描述暴力极端主义的视频中有83%是自动删除的,而不是被观众标记为令人反感的。这比8月份自动删除的视频数量增加了8%。YouTube小组还审查了超过一百万个视频,以提高自动检测和删除功能。
YouTube小组成员在博客中说:“不可避免的是,人和机器都会犯错,而且随着我们增加视频数量供团队审核,我们也犯了一些错误。” “我们知道我们会变得更好,我们致力于确保我们的团队针对正确的内容采取行动。”
状态更新之际,Google承受着更大的压力,要求其做更多的事情,以防止其平台被用来传播各种错误信息和极端主义资料。这种压力迫使该公司陷入一种状况,即不同季度的决策都被认为是错误的。
当公司采取措施封锁某些网站,视频和内容时,一些人指责它像自任命的审查员一样行事。同时,其他人指责该组织没有采取足够的措施阻止外国特工,恐怖分子和仇恨团体利用其平台散布分裂性信息。
例如,仅在本周,沙龙上的一份报告就基本质疑了该公司是否正在扼杀并实质上是在笨拙地实施努力以杜绝假新闻站点的情况下审查进步网站。
该报告指出,在几个小型的自由开放的新站点上,搜索流量突然下降,这证明了Google在满足其为从更多权威渠道获取更多内容的需求而故意篡改其搜索算法。
与此同时,《纽约时报》的另一篇报道指责谷歌在阻止事实调查网站投放假新闻广告方面做得不够。这个故事将问题归咎于Google的自动广告投放系统,并警告了如何滥用该平台来传播虚假信息和煽动性消息。
Google不是显微镜下唯一的一家。Facebook和Twitter也面临类似的压力,并面临相似的批评。
谷歌在YouTube上的努力是其防止滥用平台策略的重要组成部分。谷歌在本周的更新中指出,它已经将20个国家/地区的35个非政府组织加入了该公司称为YouTube的受信任举报人计划。
据Google称,非政府组织对于帮助该公司制定政策来标记和删除YouTube中的极端主义内容至关重要。非政府组织是仇恨言论,恐怖主义和激进化等领域的专家。谷歌指出,新加入的非政府组织包括伦敦国王学院的国际自由基研究中心和印度尼西亚的瓦希德学院。