Facebook如何决定何时审查谋杀和自杀的视频以及何时向他们展示

06-07
作者 :
呼延乘

想象一下,有两个Facebook用户发布了“自焚”的视频,或者让自己着火了。 这两个视频都包含难以查看的图形素材,有关上下文的信息以及解释它的标题。 也许一个用户认为这是一个重要的展示,并且有人认为这很有趣。

Facebook如何知道哪一个要审查?

在广受欢迎的平台上允许某些类型的图形视频 - 如那些包含谋杀和自杀的视频 - 可被视为支持其内容并利用其中的受害者。 将他们拒之门外可能会被视为审查制度,可能会掩盖一些关于让人不知所措的重要新闻。

CastileProtest 抗议者在Philando Castile的致命射击后示威。 Facebook直播视频显示,警官在枪击他后,枪指着卡斯蒂利亚号。 Facebook上是否允许这种视频? ROBYN BECK / AFP / Getty Images

有很多在线共享暴力图像的例子成为重要的新闻。 Facebook Live视频中一名警察了全国性的反响,并继续就警察对黑人的暴力行为进行长期谈话。 在社交媒体上传播的另一个令人沮丧的形象显示,有两个人因吸毒而昏倒,而一个孩子则坐在汽车的后座上。 这种形象具有 。

另一方面,Facebook可能不希望成为寻求​​和庆祝病态图像的人的来源。 考虑2012年的事件,色情演员Luka Magnotta拍摄了一段自杀视频的视频。 Magnotta将视频发送给Bestgore.com的所有者Mark Marek,这是一个专门针对真正恐怖恐怖的网站。 马雷克发布了臭名昭着的视频,这让他对Magnotta产生了极大的关注 - 但这也 。 尽管如此,加拿大法院发布了该视频,并将该帖称称为“腐败的道德”。

美国法院可能会开始做出类似的定罪。 在有争议的法案SESTA(停止实施性贩运者法案)和FOSTA(打击网上性交易法案)之后,Facebook等平台必须提防。 国会越来越多地开始拥有互联网平台,用户通常可以在没有公司正式员工审查的情况下发布他们想要的任何内容,对这些用户发布的内容负责。 一些人批评这些法律 ,他们的负责。

Facebook有 ,可以详细解释什么是允许的和不允许的,以及可以通过警告屏幕发布的内容。 在涉及 ,不允许用户发布图像,包括视频,无论是否存在,真实的人或动物包含“享受痛苦”或“对痛苦的色情反应”。 然而,允许“在医疗环境中”残割和肢解的图像和“当该行为是一种政治言论或有新闻价值的形式时的自焚”以及一些更具图形的例子。 在这些情况下,Facebook会设置一个警告屏幕,如果他们真的想要查看图形内容,则必须点击这些屏幕。

,目前,Facebook使用人工版主和人工智能系统来扫描和删除他们认为违反其标准的内容。 芯片上的AI将更高效,并且需要更少的计算能力。

暴力是恐怖和新闻的交汇点。 由法律,互联网平台和个人来决定在黑暗中应该保留哪些内容,哪些内容应该被揭露。