06月
09日
英国安全机构敦促限制 Meta 用 AI 进行 90% 风险评估,Meta 强调人工决策主导
牛透社 2025 年 6 月 9 日消息,英国多家互联网安全倡导机构联名致函国家通讯监管局 Ofcom,要求限制 Meta 公司在关键用户安全风险评估中过度依赖人工智能技术,原因是 Meta 计划将高达 90% 的风险评估工作交由 AI 自动化完成,引发对未成年用户保护的忧虑。
Meta 声明称 AI 工具仅用于辅助识别,所有风险决策由人工审核团队最终裁定,AI 提升了安全管控效率和内容治理成效。匿名前 Meta 高管称 “敏捷开发” 模式虽加速功能迭代,但会使产品上线前风险评估窗口缩短,让重大安全隐患更易流入现网环境。