AI工具可识别99%的虐待儿童图像

本文的翻译是在“计算机视觉”课程开始前夕进行的














新的基于人工智能的工具的开发者声称,它可以以近99%的准确性检测虐待儿童的图像。



Safer是由非营利组织Thorn开发的工具,用于帮助没有自己的过滤系统的企业检测和删除这些图像。



根据英国互联网观察基金会的报告,在COVID-19隔离期间虐待儿童的报告增加了50%。自3月23日起的11周内,他们的热线收到了发现的44,809张图像,高于去年的29,698张。这些图像中的许多图像来自儿童,这些儿童在Internet上花费了很多时间并不得不发布其图像。



NSPCC的互联网儿童安全负责人安迪·伯劳斯(Andy Burroughs)最近英国广播公司(BBC)表示:“如果社交媒体更明智地投资于技术,并在危机时期投资于更安全的设计功能,则可以减少危害。”



安全性是一种工具,可以帮助您快速标记虐待儿童的内容,以减少造成的伤害。



更安全的发现服务包括:



  • 图像哈希匹配:一项旗舰服务,可为图像生成加密和感知哈希并将这些哈希与已知的CSAM哈希进行比较。在发布时,该数据库包含590万个哈希。散列在客户端基础结构中进行,以保留用户隐私。
  • CSAM (CSAM Image Classifier): , Thorn Safer, , CSAM. , , CSAM , CSAM.
  • (Video Hash Matching): , , CSAM. 650 . CSAM.
  • SaferList : Safer, Safer , Safer, . , - .


但是,问题不限于内容标记。据记录,社交媒体平台的主持人在日复一日地暴露于互联网上发布的最令人不安的内容之后,经常需要治疗甚至帮助防止自杀。



索恩称,“更安全”的设计考虑了主持人的健康。为此,内容会自动模糊(该公司表示目前仅适用于图像)。



Safer拥有可供开发人员使用的API,“旨在通过添加哈希,使用其他行业的哈希进行扫描并提交错误的积极反馈来扩展对虐待儿童内容的常识”。



Flickr是Thorn目前最著名的客户之一。Flickr使用Safer在其平台上发现了虐待儿童的图像,经过执法调查,该图像导致扣押了18个14个月至14岁的21名儿童,并逮捕了犯罪分子。



目前,美国境内任何公司均可使用Safer。在适应每个国家的国家报告要求之后,Thorn计划在明年将业务扩展到其他国家。



您可以在此处阅读有关此工具以及如何入门的更多信息



All Articles