专家称,Facebook夸耀ISIS 99%的内容,基地组织的内容掩盖了其所揭示的一切-华盛顿时报
跳到内容

How 扎克伯格 can keep straight face with claim 脸书 flags 99% of 恐怖分子 content

脸书首席执行官马克·扎克伯格(Mark 扎克伯格)在2018年4月10日星期二在华盛顿国会山举行的商务和司法委员会联合听证会上作证,内容涉及使用Facebook数据针对2016年大选的美国选民。 (美联社照片/亚历克斯·布兰登)
脸书首席执行官马克·扎克伯格(Mark 扎克伯格)在2018年4月10日星期二在华盛顿国会山举行的商务和司法委员会联合听证会上作证,内容涉及使用Facebook数据针对2016年大选的美国选民。 (美联社照片/亚历克斯... 更多>
- The 华盛顿州 Times - 2018年8月14日,星期二

那不是’专家认为,这虽然是谎言,但这仍然是一个可恶的统计数字。

脸书 发明家兼首席执行官 马克·扎克伯格 吹嘘他的公司能够举报“ISIS和基地组织内容的99%…在任何人看到之前”他在四月份向国会作证时。

脸书像YouTube和Twitter等其他主要互联网平台一样,在清理其暴力,极端主义和更模糊概念中“hate speech.”

但是作为关于社交媒体的辩论’的责任和第一修正案, 扎克伯格先生‘专家说,评论模糊不清。

“He’说他们最终删除的内容中,有99%被他们的算法捕获,而不是被人类标记,”卡托研究所的高级研究员朱利安·桑切斯(Julian Sanchez)说。“现在,我认为这在技术上是正确的。但是那’不同于说他们的算法非常好,他们可以准确地识别ISIS和“基地”组织的内容,我认为关注这两个群体—与圣战分子或‘violent extremist’ content —通常应该使我们怀疑这个数字有多有意义。”



那里’s no doubt 脸书 希望它看起来有意义。

“That’是一个措辞谨慎的陈述,’s the figure they’自从今年年初以来,全世界一直在说” said 法扎·帕特尔(Faiza Patel),布伦南司法中心联合主任 ’自由与国家安全计划。“但是鉴于内容的范围以及我们所做的’不知道,那没有’t tell you much.”

社交媒体公司表示,他们已经在应对圣战分子利用在线平台吹嘘自己的所作所为,招募成员并鼓励独狼袭击的威胁方面取得了进展。

脸书 has gone the furthest of any platform, touting the 99 percent 成功 rate. 那 stems from the 1.9 million pieces of content removed in one three-month period this year —其中99%被人工智能算法标记和删除, 脸书 说。

该公司未对《华盛顿时报》提出的问题做出回应,而是指出其最近几个月发表的各种政策声明。

专家说 脸书‘的信息是私人拥有的,因此无法确定。

过去,可以通过阅读两家公司在网上或贸易出版物上发布的白皮书来收集有关从平台清除了多少内容的更具体的数字,但这还没有’加州大学洛杉矶分校(UCLA)信息研究助理教授莎拉·罗伯茨(Sarah Roberts)说,自2013年左右以来,这就是事实。

“I think that’是关键的东西’s unknown,” she said. “部分原因是公司希望将其隐藏在商业秘密的保护下,但事实是每个人都不清楚,不仅仅是 脸书 但与所有公司。”

“I agree it doesn’告诉你的一切,”竞争企业研究所研究员Ryan Radia说。“我的意思是,样本量是多少?就我们所知,其中一半可能仍会出现,我们’只是在谈论什么百分比’删除了人工智能拦截的内容。但我怀疑’很准确,他没有’t just make it up. 那’s not very likely.”

社交媒体上的建筑风暴使 脸书 更透明 帕特尔女士说过, noting that the company released a “transparency report” this year. In it, 脸书说过 it had taken down 1.9 million 恐怖分子-related pieces of content in the first quarter of the year.

其中600,000件是“他们在那个季度刚发现的旧内容,”布鲁金斯学会中东政策中心研究员克里斯托弗·梅塞罗(Christopher Meserole)说。

梅塞罗莱先生还提到了另一个被广泛吹捧的统计数据的担忧:人们如何定义令人反感的内容。

“想象一下,如果一家医疗公司夸耀自己的测试在100%最终患有癌症的患者中发现癌症,” he said. “That’这不是一个非常有用的统计信息,因为如果您将所有患者中的100%标记为可能患有癌症,那么您’会得到100%‘success’率。为了评估该测试的有效性,您还想知道该测试多久能预测那些’没有它。同样的道理 脸书‘s 99 percent figure — it doesn’永远不会告诉你任何事情 脸书‘AI标记的内容’确实有问题,所以没有’告诉您有关AI实际有效性的信息。”

脸书在四月份的一份报告中,将恐怖组织定义为“为了谋求政治,宗教或意识形态目的而蓄意实施的针对人员或财产的暴力行为,以恐吓平民,政府或国际组织的任何非政府组织。”

那 definition diminishes the picture 扎克伯格先生‘s testimony provided, since Islamic State and al Qaeda are the most infamous 恐怖分子 groups but aren’t alone.

“可以的人类技能’教给该算法的是处理帖子的语义内容,而无需那些标记来知道它是否’实质上是恐怖分子的宣传,” Mr. Sanchez said. “通过从隶属角度来构想这个答案, 扎克伯格 基本上只是说机器在我们已经知道机器更擅长的方面表现更好。”

罗伯茨女士也说了很多“terrorist”帖子只是在重新发布已公开发布的内容,例如《华尔街日报》记者丹尼尔·珀尔(Daniel Pearl)的臭名昭著的视频’s beheading.

什么’s more, 扎克伯格先生 仔细地仅提及恐怖主义类型的材料。

当涉及除草范围更广的“hate speech,” 脸书 is much worse, with just a 38 percent 成功 rate for the automatic algorithms. 那 means most of the 2.5 million pieces of information flagged from January to March came from user reports.

相比之下,在同一时间删除的2100万条裸露或露骨的性爱帖子中,有96%属于该算法。

但是,即使在那儿,也会出现问题。例如,母乳喂养的照片使社交媒体头疼,在一个广为流传的例子中 脸书 最初删除的帖子包含Nick Ut’越南战争中的一幅著名照片,一名乡村女孩在南越空军的凝固汽油弹袭击后裸奔。

诸如伊斯兰国斩首的残酷视频和其他形式的处决之类的帖子对于人工智能或人们来说都是容易的呼唤。它’当涉及细微差别时,人工智能就会出现更多问题。

扎克伯格先生 在他的证词中承认这一限制。

“与其他问题相比,某些问题更容易使自己适合AI解决方案,” he said. “因此,仇恨言论是最难的一项,因为确定仇恨言论是否很细微,对吗?它’s —您需要了解什么是侮辱,什么是—是否有些仇恨不仅是英语,还是大多数人 脸书 以世界各地不同的语言使用它。”

拉迪亚说,即使在讲英语的人中,可能对英国和澳大利亚构成幽默侮辱的单词在美国也可能被认为是冒犯性的。

帕特尔女士说过 the debate is moving quickly amid a rush of public pressure, and some concerns aren’被充分考虑。

“Things like ‘hate speech’是个滑溜溜的概念,难以定义,” she said. “到目前为止,证据还不充分,但我们’我已经看到了它的发生,而我’我担心他们会扫得太广,太多的政治言论将席卷而来。”

订阅每日时事通讯

管理新闻通讯

版权©2021年《华盛顿时报》有限责任公司。 请点击 在这里获得转载许可.

请阅读 我们的 评论政策 评论之前。

 

点击阅读更多 并查看评论

点击隐藏

热门故事