Meta监督委员会对自动审核机制发出警告

Meta的监督委员会敦促该公司对自动审核机制采取更谨慎的方法,并批评Meta删除了一幅描绘哥伦比亚警察暴力行为的漫画。此项决定是委员会处理一系列新案件的一部分,包括有关印度性侵犯视频的案件。


监督委员会审查了一幅政治漫画,该漫画显示哥伦比亚警察持警棍殴打一名男子。这幅漫画已添加到Meta的媒体匹配服务数据库中,这表示Meta的系统将自动将发布该漫画的用户标记为删除目标。然而,当用户对他们的帖子被删除提出质疑时,他们提出上诉并取得了成功。


监督委员会表示,215人对删除提出上诉,其中98%的上诉成功。然而,在委员会受理此案之前,Meta并未从其数据库中删除该漫画。自动化可以放大错误审核的影响,这让委员会感到担忧。


“通过使用自动化系统进行内容删除,媒体匹配服务库可以放大个别审核员错误决定的影响。”该决定称,“一个响应更快的系统可以通过在有图像的个别帖子成功上诉时触发银行审查来解决这个问题。否则,基于错误决定被禁止的图像可能会被无限期秘密禁止,即使个别审核人员后来得出不同的结论。”


这是监督委员会质疑Facebook和Instagram的自动审核是否校准充分,避免对正常内容进行过度打击的许多案例之一。与之前的案例一样,委员会寻求进一步改进。


“委员会特别关注的一个问题是,Meta并未衡量媒体匹配服务库对特定内容政策的准确性。”委员会指出,“没有这些对改进这些库的工作方式至关重要的数据,该公司无法确定这项技术是否对某些社区标准比其他标准更有效。”


监督委员会要求Meta公开被错误纳入匹配库的内容的错误率。根据委员会成立时确立的规则,Meta必须对建议作出回应,但可以选择是否实施。


Meta对赞美极端主义团体的处罚“含糊不清且严厉”

监督委员会还处理了众多事件之一,考验了Facebook支持极端主义团体与对其进行报道之间的界限。委员会裁定,Meta错误地删除了一篇乌尔都语的Facebook帖子,该帖子报道了塔利班重新为妇女和女孩开设学校和学院。


该帖子因违反规则“赞美”塔利班等组织而被删除。该帖子在上诉后被转移到一个指定的审核队列,但实际上从未进行审核——委员会指出,当时,Facebook分配给该队列的乌尔都语审核员不足50人。


委员会表示,这个案例“可能表明”关于危险组织的规则存在更广泛的问题。它表示,在发生了几起事件后,该政策对用户和版主来说似乎含糊不清,对违反规则的行为的处罚“含糊不清且严厉”。委员会要求对“赞扬”危险人物提供更明确、更狭隘的定义,并将更多版主分配到审核队列。


与此同时,监督委员会正在征集公众意见,以审议两起案件。第一个案件涉及尼日利亚教堂大规模枪击事件的视频,该视频因违反Meta的“暴力和图片内容”政策而被禁止,但可能具有新闻价值,因此有理由保留它。同样,委员会关注的是是否应该允许一段描述印度性侵犯的视频,以提高人们对种姓和性别暴力的认识,或者其对非自愿触摸的生动描述是否具有内在的危害性。这两个案件的评论窗口将于9月29日关闭。


数字星球号码筛选平台服务推荐——Facebook号码筛选

数字星球是一个全球领先的号码筛选平台,它结合了全球手机号段选择、号码生成、去重、对比等功能。它为全球客户提供支持236个国家的批量号码筛选和检测服务,目前支持20多个社交和应用程序,如:WhatsApp/Line/Zalo/Facebook/Telegram/Instagram/Signal/Amazon/Microsoft等。


该平台具备多项功能,包括开通筛选、活跃筛选、互动筛选、性别筛选、头像筛选、年龄筛选、在线筛选、精准筛选、时长筛选、开机筛选、空号筛选、手机设备筛选等。


平台提供自筛模式、代筛模式、细筛模式和定制模式,以满足不同用户的需求。其优势在于集成了全球各大社交和应用程序,提供一站式、实时、高效的号码筛选服务,助您实现全球数字化发展。更多请咨询客服