为什么Shadowban不适合Discourse

原文链接: Shadowbans are bad for discourse, and here's why - community - Discourse Meta

翻译: @Calorie

译者序:本文虽然谈的是Discourse,但其实具有普适性。所以我觉得其实倒应该换个名字:为什么Shadowban不适合任何平台。


我在这儿[1]读到了一些令我很受鼓舞的话题,关于社区审核(Moderation)的,比如说 @codinghorror这篇文章,于是我想在这里抛砖引玉。

最近有人在Twitter上披露了Twitter正在使用shadowban(秘密审核,即限流),这又一次引发了该不该使用shadowban类的审核工具的辩论。它们对Discourse社区是好是坏?通过这篇文章,我希望在版主和用户之间引发一些关于使用shadowban的辩论。

我的观点是,透明的审核(下面有定义)培养版主和用户相互信任的用户群,而秘密审核会带来更多麻烦,弊大于利。因此,我认为永远不应该使用像shadowban这样的东西,即使是像 Discourse 这样的“小型”论坛。

关于我[2]

我是 Reveddit 的作者,该网站向 Reddit 用户展示他们被限流的内容。Reveddit 于 2018 年推出,从那时起,我一直在 RedditHacker News 以及最近在 Twitter 上直言不讳地反对广泛使用类似shadowban的工具,我称之为秘密审核。如果你对所有最流行的平台上都发生了某种形式的秘密审核抱有怀疑,请同时观看我的演讲 2022 年真相与信任在线,中的幻灯片的第 8-9 页,5 分 50 秒,也可以在 Using the Whole Whale 找到我。如果你对这种做法在各行各业的用户中都不受欢迎这件事有怀疑,请在 Reveddit 的疑难解答中查看数千名用户的反应.

前言

作为参考,以下是类似 shadowban 行为的一些现有定义:

  • “在此人不知道的情况下,故意让某人的内容只能被自己看到,而无法被其他人看到”。—— 推特博客
  • “其他人根本看不到被秘密封禁的用户,这些人自己也不知道自己被秘密封禁了。从他们的角度来看,他们正常参与社区活动,只是没有人回应他们。他们没法再在社区里捣蛋,因为没人看得到他们。—— Coding Horror

以下是我的两个定义:

  • 透明审核:管理员对用户内容进行操作,用户会收到通知。
  • 秘密审核:管理员对用户内容进行秘密操作,用户自己无法知情。

请注意,当平台谈论透明度时,这只是意味着它们清楚地描述了他们的政策。这与透明审核不同

需要明确的是,我确实支持使用透明的审核。我不支持政府干预社交媒体以加强平台的透明度,就像亚太旅游协会(PATA)在美国DSA在欧洲所尝试的那样(分别为《平台问责制和透明度法案》和《数字服务法案》)。并且,我也接受平台进行秘密审核的合法权利。

透明审核的理由

反对秘密审核的理由正是支持透明审核的理由。

秘密审核违背了人身保护令,人身保护令是一个有千年历史的概念,即被告有权面对原告。人身保护令的价值作为修正案(第 6 条)载入美国宪法,它也是我们期望自己能拥有、并且理应同时赋予他人的一项基本尊严。简单地说,秘密惩罚是不公正的。

也许你会说,“但这些都是私人平台!确实如此。然而,即使是私下里,我们仍然努力坚持某些理想,正如FIRE的Greg Lukianoff 在这里所阐述的那样。

约翰·斯图亚特·密尔(John Stuart Mill)在《论自由》中提出了同样的例子,他写道:“因此,仅仅保护自己免受地方法官的暴政是不够的:还需要保护自己免受主流舆论和感情的暴政。” [3]

也许你会说,“我们需要它来处理SPAM(机器人、垃圾信息发布者)!” 但这只会在很短的时间内起作用。从长远来看,机器人将发现如何检查其内容的可见性,而用户大多不会。因此,透明审核对机器人同样有效,秘密审核只会伤害活生生的人。

也许你会说,“我只是在一个小论坛上使用它”。我想问,真的有必要诉诸欺骗吗?在小型 Discourse 论坛上习惯了秘密审核可能导致支持秘密审核在大型平台上被使用,这对我来说是危害是很明显的。无论何时、何处,每个问题都在受到秘密审核的影响。超过 50% 的 Reddit 用户在最近一个月内被悄咪咪的删掉了一些评论。它打断了无数次的对话,也许是因为担心如果仇恨被“释放”会发生什么。但Reveddit已经存在了四年,这并没有发生。相反,我观察到的是更健康的社区,我在演讲中将许多例子联系起来。

大规模的秘密审核也会增强你的敌人的力量。您认为不文明的团体更有可能更肮脏地使用秘密审核。当您有权实施此类工具时所获得的任何好处都会随着时间的推移而消失。只要你用了秘密审核,你就无法在其他地方赢得关于它的使用的争论。

据我所知,很少有研究来研究影子审核的影响。我知道一项研究表明,随着透明度的提高,版主工作量会下降。而且我们也知道,与封闭的社会相比,开放的社会更繁荣。

如果不加以控制,秘密审核会滋生被孤立的群体,他们没有为没有这种保护措施的现实生活做好准备。这可能导致暴力行为或自残行为,因为当我们失去可以控制言论的力量时,言语造成的伤害是真实的。为了避免,我们可以选择用反驳来回应仇恨言论,并鼓励用户们也这样做。

最后,新立法律无法为我们解决这个问题。任何这样的法律都会削弱我们的个人自由,并产生意想不到的后果:要么赋予政府极大的权力,而这些权力刚好是这个法律想要避免授予给任何实体的,要么让它变成一纸空文,因为如果不让政府获得所有代码,就没有办法强制执行透明度。所以你要么回到原点,要么比开始时更糟。对人身保护令和公民话语的支持,最好通过对实际透明的审核文化支持来实现。除此之外,任何事情都只是治标不治本。

结论

总而言之,人们不应该采取这样的立场,“他能这么干,我为什么不能?”。相反,应该思考一下你们俩的立足点是不是都很差。不使用秘密审核的 Discourse 论坛和其他论坛有更坚实的基础。他们的用户群已经形成版主和用户相互信任的气氛,因此双方都可以自由地开诚布公地说话。而且,鉴于秘密审核的广泛使用,现在比以往任何时候都更需要公开支持透明审核。

附录

在Twitter上,一种尚未报道的shadowban可能是,如果你的推文含有某些链接的提及,它就会被限流。当我分享我的新博客的链接时,我发现了这一点,博客用的是廉价的 .win 域名(2 美元/年)。我注意到发推后,我的这条推文只显示给我,不显示给其他人。例如,这条推文底下看不到我的回复,哪怕您单击“显示更多回复”按钮。要查看我的回复,您必须直接访问它的链接。实际上,任何不认识我的人都看不到该回复。Twitter 向我隐瞒了这件事。

* 我认为大规模审查在一种情况下有益:当社会忘记了审查的坏处时。好了伤疤忘了痛,审查就会不可避免地会卷土重来,哪怕只为再次提醒我们它的罪恶。


  1. 译者注:指 Discourse Meta ↩︎

  2. 原作者 ↩︎

  3. https://www.gutenberg.org/files/34901/34901-h/34901-h.htm#:~:text=Protection%2C%20therefore%2C%20against%20the%20tyranny%20of%20the%20magistrate%20is%20not%20enough%3A%20there%20needs%20protection%20also%20against%20the%20tyranny%20of%20the%20prevailing%20opinion%20and%20feeling ↩︎

2 个赞

サツキ 在 Telegram 中回复您:
小偷小摸暴政(x
光明正大暴政(✓