苹果狙击儿童色情!推出这些措施 覆盖iPhone/平板等

2024-10-19 14:46:48 来源: 大科技网 点击数:

  8月6日,手机中国了解到,苹果宣布了一项新的措施,将开始扫描iPhone中是否存在虐待儿童的图像。

  “苹果检测已知CSAM(儿童性虐待材料)的方法在设计时考虑了用户隐私,”苹果表示。“该系统不是在云端扫描图像,而是使用NCMEC(国家失踪和受虐儿童中心)和其他儿童安全组织提供的已知CSAM图像哈希数据库执行设备上匹配。苹果进一步将该数据库转换为不可读的一组安全存储在用户设备上的哈希值。”

苹果分析图片的技术原理(图源新浪科技)
苹果分析图片的技术原理(图源新浪科技)

  苹果在技术摘要中提供了有关CSAM检测系统的更多详细信息,并表示其系统使用阈值“设置为提供极高的准确度,并确保每年错误标记给定帐户的几率低于万亿分之一”。

  苹果表示,这些变化将在“今年晚些时候在iOS 15、iPadOS 15、watchOS 8和macOS Monterey的更新中推出”。苹果还将部署可以分析Messages应用程序中图像的软件,以开发一个新系统,该系统将“在接收或发送色情照片时警告儿童及其父母”。

敏感图像将是模糊的,并且家庭组中父母的产品上会有通知(图源新浪科技)
敏感图像将是模糊的,并且家庭组中父母的产品上会有通知(图源新浪科技)

  “消息使用设备上的机器学习来分析图像附件并确定照片是否具有色情内容。该功能旨在使苹果无法访问消息,”苹果表示。

  当Messages中的图像被标记时,“照片会变得模糊,孩子会收到警告,提供有用的资源,并保证他们不想查看这张照片也没关系。” 如果孩子确实查看了被标记的照片,系统将让父母收到一条消息,并且“如果孩子试图发送色情照片,则可以使用类似的保护措施。在发送照片之前,孩子将收到警告,并且父母可以收到一条消息如果孩子选择发送它,”苹果称。

SIri增加类似“我该怎么办”功能(图源新浪科技)
SIri增加类似“我该怎么办”功能(图源新浪科技)

  苹果表示,它还将更新Siri和搜索,以“为父母和孩子提供更多信息,并在遇到不安全情况时提供帮助”。Siri和搜索系统将“在用户搜索与CSAM相关的查询时进行干预”,并“向用户解释对该主题感兴趣是有害和有问题的,并提供合作伙伴的资源以获取有关此问题的帮助”。

关键字:苹果iPhone 12儿童性虐待

责任编辑:科罗
Copyright © Science and Technology Daily, All Rights Reserved
科技日记 版权所有