为什么科技没有阻止新西兰的病毒攻击

At least 49 people were murdered Friday at two mosques in Christchurch, New Zealand, in an attack that followed a grim playbook for terrorism in the social media era. The shooter apparently seeded warnings on Twitter and 8chan before livestreaming the rampage on Facebook for 17 gut-wrenching minutes. Almost immediately, people copied and reposted versions of the video across the internet, including on YouTube, Twitter, and Reddit. News organizations, too, started airing some of the footage as they reported on the destruction that took place.

当硅谷的高管们周五早上醒来时,科技巨头的算法和国际内容调节剂部队已经开始争先恐后地控制损失,但并不是很成功。在拍摄开始后的几个小时内,各种版本的视频都可以在YouTube上用基本的关键词搜索到,比如枪手的名字。

这几乎不是我们第一次看到这种模式发挥出来。两名新闻记者在维吉尼亚州的摄像机上被枪杀已经将近四年了,而凶手的第一人称视频则在facebook和twitter上传播。自从达拉斯的一次大规模枪击事件的录像带被病毒传播以来,已经快三年了。

克赖斯特彻奇惨案确实让人们纳闷,为什么在这之后,科技公司还没有找到阻止这些视频传播的方法。答案可能是一个令人失望的简单答案:它比听起来要困难得多。

多年来,Facebook和谷歌都在开发和实施自动化工具,可以检测和删除违反他们政策的照片、视频和文本。Facebook使用微软开发的一个工具photosna来识别已知的儿童色情图片和视频。谷歌开发了自己的开源版本。这些公司还投资了技术来发现极端分子的帖子,联合了一个名为“全球互联网论坛”的组织来打击恐怖主义,分享他们所知道的恐怖主义内容。这些程序为已知有问题的图像和视频生成称为哈希的数字签名,以防止它们再次上载。Facebook和其他公司也在机器学习技术上进行了投资,这些技术已经被训练用来发现新的令人不安的内容,比如斩首或带有ISIS标志的视频。所有这些都是人工智能工具的补充,它们可以检测到更平凡的问题,比如侵犯版权。

了解更多

人工智能有线指南

自动调节系统是不完善的,但可以有效。例如,在YouTube上,绝大多数视频都是通过自动化删除的,73%的自动标记的视频在一个人看到之前被删除。

但当涉及到在新闻中播放的实况视频和视频时,情况就变得更加棘手了。克赖斯特彻奇枪击案的录像检查了这两个盒子。

哈佛大学肯尼迪学院(Harvard’s Kennedy School)研究员、Facebook隐私与政策团队的前成员迪帕扬•戈什(Dipayan Ghosh)表示:“他们还没有达到让有效的人工智能主动抑制这类内容的目的,尽管这是世界上最富有现金的行业。”这就是为什么Facebook和YouTube都有一个由人类主持人组成的团队来审查世界各地的内容的原因之一。

主板上有一篇很有启发性的文章,介绍了Facebook的内容主持人如何审查用户标记的实时视频。根据主板获取的内部文档,一旦视频被标记,版主就可以忽略它,删除它,在五分钟内再次检查它,或者升级到专门的审查小组。这些文件说,主持人还被告知要在实况视频中寻找警告标志,比如“哭泣、恳求、乞讨”和“任何上下文中的枪支或其他武器(刀、剑)的显示或声音”。

目前还不清楚为什么克赖斯特彻奇的视频能够播放17分钟,甚至不清楚这是否构成了Facebook的一个短时间框架。该公司没有回答Wired关于这方面的问题,也没有回答Facebook如何区分新闻内容和免费图片暴力的问题。

相反,Facebook通过有线方式发送了这一声明。“我们的心向受害者、他们的家人和受这一可怕行为影响的社区倾诉。在Livestream启动后不久,新西兰警方通知我们Facebook上的一段视频,我们迅速删除了枪手的Facebook和Instagram帐户以及视频。一旦我们意识到,我们还将取消对犯罪和枪手的任何赞扬或支持。我们将继续直接与新西兰警方合作,因为他们的反应和调查仍在继续。”

谷歌在新西兰的发言人也对Wired的问题发表了类似的声明。“我们的心向这场惨剧的受害者倾诉。令人震惊的、暴力的和图形化的内容在我们的平台上没有位置,一旦我们意识到它就会被删除。像处理任何重大悲剧一样,我们将与当局合作。”

不过,谷歌发言人补充说,这些有新闻价值的拍摄视频将继续增加。这使得该公司面临着一个棘手的问题,即必须决定哪些视频实际上具有新闻价值。对于科技公司来说,采取直截了当的手段,禁止将拍摄的每一个片段发布到他们的网站上要容易得多,也许可以使用指纹技术来删除儿童色情内容。有人可能会说,这是一种值得考虑的方法。但在他们的内容节制政策中,Facebook和YouTube都为新闻机构制定了明确的例外。换言之,同一个旨在美化YouTube账户上拍摄的视频也可能出现在当地新闻分支机构的新闻报道中。

尤其是YouTube在过去曾因删除研究人员所依赖的叙利亚暴行视频而受到批评。这使得科技公司不仅难以评估新闻价值,而且还试图找出实现这些评估自动化的方法。

正如谷歌总顾问肯特·沃克(Kent Walker)在2017年的一篇博文中所言,“机器可以帮助识别有问题的视频,但人类专家仍然在关于暴力宣传和宗教或新闻言论之间界限的细微决定中发挥作用。”

当然,这些公司可以利用信号来确定视频的出处和目的,Ghosh说。Ghosh说:“内容的时间安排,内容提供者在过去发布的内容的历史衡量标准,这些是当你遇到这些不可避免的情况时,你必须使用的信号类型,在这些情况下,你有新闻机构和个人推出相同的内容,但你只希望新闻机构这样做。”说。

戈什认为,科技公司之所以没有在这方面做得更好,一个原因是他们缺乏任何切实的激励措施。他说:“没有什么能迫使他们制定更好的内容节制计划的方法。”去年,欧盟委员会(European Commission)的监管机构确实提出了一项建议,要求建立一个良好的平台,允许极端主义内容在网上停留一个多小时。

最后,还有一个永恒的规模问题。YouTube和Facebook都有可能变得太大而无法适应。有人建议,如果这些基督城的视频弹出速度超过了YouTube的速度,那么YouTube应该停止所有视频上传,直到它能解决这个问题。但是没有人知道在那个时候什么声音会被压制,因为他们所有的缺点,社交媒体平台也可以成为突发新闻事件中重要的信息来源。此外,可悲的事实是,如果Facebook和YouTube在每一篇令人发指的帖子被病毒传播时都停止运营,它们可能再也不会启动了。

当然,所有这些正是射手的策略:利用人类的行为和技术无法跟上它,以巩固他可怕的遗产。

汤姆·西莫尼参与了报道。

这是一个发展中的故事。我们将在更多信息可用时更新。


本文来自投稿,不代表泡面小镇立场,如若转载,请注明出处:www.pmtown.com/archives/161065.html

QR code