我们可以让社会参与自我维持的互联网文化吗?





随着社交媒体和其他在线平台的发展,人们有空前的机会举办公共活动。但是,这种发布和传播信息的能力常常没有被很好地利用。在这里,暴力,恐怖主义,假冒,非法药物的普及,垃圾邮件,侮辱等等的蔓延,在社会上引起了共鸣。在这种情况下,在线平台传播信息的能力开始对人们有害。



同时,在线平台在识别我们不希望看到的信息方面有足够的困难,因为在Internet上分发的内容量巨大,并且不断增长,并且内容审核的任务绝非易事。因此,尽管自动化方法取得了成功,但在线平台聘请的手动查看内容的主持人的数量也在稳步增长,公众对审核过程的批评浪潮也是如此。







最重要的是,关于谁应在何种程度上对内容负责的争论在社会上愈演愈烈。





2020年5月下旬,唐纳德·特朗普总统在社交媒体平台上签署了一项行政命令,要求他们对其网站上发布的内容负责,并命令FTC和总检察长开始调查公司。原因是在Twitter上张贴了一些总统推文上的事实检查警告标签,总统认为这是审查制度,被选择性地而非透明地应用。



但是,我们想要互联网公司提供什么?为了让他们成为平台上所有事物的全球检查员,即使付出高昂的人工审核费用?还是他们不以言论自由为名干预我们的交流?线路在哪里?谁制定游戏规则?对于涉及以下各方的信息字段的审核是否有可能让步:互联网公司,用户,监管机构?维护互联网文化是否可能是一个复杂的问题,不仅对互联网公司来说是一个问题,而且还要求社会本身参与此过程,并要求它至少对发布的内容承担部分责任?



这样的问题出现更多更经常地...









?





当前,公司正在尝试通过使用“投诉”按钮来吸引用户进行审核,该按钮的实现有几种主要方法。



因此,通过按下该按钮,可以将用户选择的内容发送给预定的主持人进行审查。这种方法的优点是最终用户可以轻松指示违规情况。这种方法的缺点是对单个用户的评估缺乏信心,因此,需要确认主持人的违规行为,主持人由于内容量的不断增长而常常没有时间做出回应。在这种情况下,最终的决定权以及拒绝不当信息的责任完全由互联网公司承担。



集体节制是另一种主要方法。该方法有许多变体,但是通常可以如下描述该方法。当一定数量的用户单击相同内容的“投诉”按钮时,公司可以认为存在违规行为,并启动自动程序以删除不当内容或以任何方式对其进行标记,从而警告用户。这种方法的优点是用户可以完全独立地影响信息文化。因此承担拒绝不适当信息的团体责任。缺点是,此类技术仍然不信任对单个用户的评估,因此,它暗示了一些足够数量的投票用户,可能根本不招募他们来组织对特定内容的投票。



结果,在实践中,社会参与调节网络文化的过程是一种间接或繁琐的过程,难以大规模使用。尽管用户对保持适当的互联网文化感兴趣,而且正如使用“投诉”按钮的做法所表明的那样,但他们确实愿意在违反情况下参与其中!但是,他们的投票是有条件的,并且都是由于在Internet上对普通用户所做的评估不信任。不,默认情况下。







但是,我们可以学会信任单个用户的判断吗?





似乎不可能简单地上网并信任普通用户的评估。但是可以创建条件,在此条件下可以信任此评估。而且我们已经拥有如此成功的经验。众所周知的无聊的reCaptcha使用此方法。更准确地说,它是第一个版本,其中要求用户在网站上写一些授权词。其中一个词是验证并且对于系统来说是已知的,另一个词对于系统来说是未知的并且需要被识别。用户自己不知道哪个单词已知,哪个单词不知道,并且为了更快地登录,他们不得不尝试诚实地回答而不是猜测。



结果,诚实回答并正确输入测试词的用户被认为是客观的,reCaptcha进一步跳过了他们,并接受了以前未知的词作为正确结果。结果证明是有效的。通过这种简单的方法,reCaptcha用户在工作的头六个月中成功识别了约1.5亿个无法识别的单词,这些单词无法用自动方法识别。





如果您在节制领域应用此方法怎么办?





与reCaptcha类似,您可以赋予单个用户执行审核测试的能力,即一种评估一些出版物是否符合某些预定义规则的测试。同时,在出版物中将有一个出版物,其评估对我们而言是未知的,其余出版物将是具有以前已知估算的验证出版物。此外,如果用户成功通过了测试,即在评估系统已知的验证出版物方面很诚实,然后我们接受他对未知出版物的评估,也就是说,我们信任该用户的意见。而且,为了获得对我们未知的出版物的评估,因此,我们将不需要进行集体投票。一个用户就足够了。



通过将此测试与“投诉”按钮结合使用,我们可以创建一个环境,允许用户自己完全审核信息。为此,在单击“投诉”按钮后,将首先要求用户进行测试。然后,如果他通过了测试,则他要举报并且认为自己违反了某些预定义规则的帖子将被发送以供审查。



在通过测试的过程中,用户将是某个出版物的不知情,公正的主持人,而该出版物的评级尚不清楚,并且该用户抱怨的出版物将发送给自己的另一个用户,该用户也将使用“投诉”按钮,该按钮的工作方式类似... 而且,该用户将是本出版物的非自愿,公正的主持人。







这种方法能带来什么?



  • 这种方法将简化审核过程,使其成为一个批量过程,其中每个用户都有机会识别违反规则的信息。

  • : , — , , .
  • : , -, . , , .




主要在主持在线讨论(评论)时看到这种方法的使用。因此,借助它的帮助,可以轻松地将来自不同站点的用户组织成一种主持人社区。在社区中,适当的,受文化尊重的用户优先于违反者,并使用简单的规则。这里给出一个可能的实现这种方法和社区规则的小例子



此方法可以在信息字段的其他地方使用。例如,标记视频内容,识别粗鲁,残忍,毒品等。这可以是您在YouTube上看到的视频标记,也可以是通过Whatsapp发送给您所属的组之一的视频标记。然后,如果该视频震惊了您,并且您想警告其他人,则可以使用此方法将其标记为包含某些类型的不当内容的视频。当然,要完成适度测试。为了简化视频审核,您可以优化并发送整个视频而不是进行审核,而只发送包含不适当内容的视频片段。结果,随着该视频的进一步分发,该视频将带有可能对其他用户有用的标记,谁不想看这种内容。



可以将相同的方法应用于其他类型的违规。例如,如果是假货,用户可以自己添加事实检查标签,也可以添加指向反驳信息的链接。



最后,应该指出的是,用户可以使用自动方法将在信息字段的一个地方或另一个地方使用这种方法识别的用户违规信息转移到输入中,以进一步使识别此类违规的过程自动化。这将使用户与互联网公司一起解决审核由我们发布和传播的信息这一艰巨的任务。






All Articles