导语:近日,Facebook、微软、Twitter 以及 YouTube 宣布将合作推出一项计划,旨在限制线上恐怖主义内容的传播。他们将一起合作开发一个共享行业数据库,可以用来识别出与恐怖主义相关的内容。

近日,Facebook、微软、Twitter 以及 YouTube 宣布将合作推出一项计划,旨在限制线上恐怖主义内容的传播。

这四家巨头企业表示,他们将一起合作开发一个共享行业数据库,可以用来识别出与恐怖主义相关的内容,以此抵制恐怖主义的传播。

四家企业在一份联合声明中宣布,“在我们托管的用户服务器上将不会出现任何有关恐怖主义的内容。我们会在各自服务器上删除那些‘极端恐怖的图片和视频’信息。”

Facebook 公司发布了一份声明,其中描述了这个数据库的工作原理情况,他们将使用独特的数字指纹技术,将那些和恐怖主义相关的内容标出,之后再利用强大的计算机系统和算法进行识别,并更简单、高效地删除。

在处理图片内容上,Facebook 公司透露也会使用类似的“打标签”的技术,而且除了打击恐怖主义之外,一些儿童色情图片也会被删除。简单的说,Facebook 平台会给一些特殊内容配上一个独特的“识别器”,如果有人复制、传播了这些内容文件,就会被分析、监测,他们也会生成相同的哈希值。类似的系统同样被用于识别一些受版权保护的文件内容。

本次项目有些特殊

不过,本次新项目的不同之处在于,当恐怖主义图像和视频被识别出来之后,并不会立刻被自动删除,而是要先和数据库内的相关内容进行匹配、比对。事实上,个别公司也会按照自己的内容政策,以及他们如何选择定义恐怖内容的标准,来决定在什么时间、以什么方式删除这些内容。

Facebook 公司之前推出了内容审查工具,也因此受到了不少用户的抨击,而这回推出删除“恐怖主义内容”的服务,多少缓解了部分用户的激进情绪。但是,由于他们并不能对相关内容迅速做出处理反应,也意味着可能有部分恐怖主义的图像和视频会在删除之前,已经被广泛传播了。

Facebook 公司特别指出,个人信息不会被共享,但他们并没有说这些信息不会被收集。换句话说,和其他信息一样,政府部门依然可以通过法律手段向 Facebook 获得内容来源的账户信息。当然,Facebook 公司也有自己的判断来处理政府部门的数据请求,也有权选择在什么时间披露政府部门的相关请求。

一旦这四家公司发现了恐怖主义图像和视频,他们就会给相关内容打上标签,同时加入到共享资源内,新设立的数据库也将会被不断更新。Facebook 公司表示,目前四家公司的合作只是一个开始,如果这个数据库内容足够庞大,未来也会提供给其他公司使用。在 Facebook 公司发布的一份声明中,他们表示:“我们希望利用这种合作带来更大的效率,也将继续履行公司的内容政策,帮助遏制日益紧迫的全球线上恐怖主义内容。”

目前不能保证所有的参与者都会分享他们的所有观察结果,声明表示,“每个人都可以决定自己将在共享数据库中分享什么内容”。此外四家企业也没有统一的内容政策,每家企业将继续运用自己的策略和对‘恐怖主义内容’的定义来决定是否移除共享哈希发现的匹配内容。

最近,Facebook 公司一直受困于美国总统大选的社交媒体假新闻风波之中。现在,通过与其他社交网络公司合作,也让他们朝内容安全方向迈进了一步,至少为今后解决内容正确性的问题上铺平了道路。

源链接

Hacking more

...