外媒9To5Google报道,谷歌信息App正测试“敏感内容警告”功能,通过本地AI技术自动识别并模糊处理敏感图片。该功能在收发消息时均会生效:接收端自动为可疑图片打码,用户需手动选择查看或删除;发送端则会在检测到风险内容时提示确认。谷歌强调,识别过程依托Android System SafetyCore在设备端完成,无需上传至服务器。
目前,未成年人账户默认开启此功能,家长可通过Family Link应用管理;成年人账户需手动启用。该功能尚处测试阶段,推送范围有限。此前,苹果已在iOS17中推出类似功能,同样采用本地化检测以保障隐私。