1. 首页
  2. 快讯

OpenAI发布安全指南:董事会有权阻止CEO发布新模型

【OpenAI发布安全指南:董事会有权阻止CEO发布新模型】12月19日消息,据官方消息,OpenAI在官方网站发布了一份名为“准备框架(Preparedness Framework)”的安全指南,规定了“跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的流程”。 OpenAI表示,对前沿人工智能风险的研究,远远没有达到需求。为了解决这一差距并使安全思维系统化,OpenAI正在采用“准备框架”的测试版本,“准备(Preparedness)团队”将致力于确保前沿人工智能模型的安全。“准备团队”将持续评估人工智能系统,以了解其在四个不同风险类别中的表现。OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。 根据安全指南,领导层可以根据这些报告决定是否发布新的人工智能模型,但董事会有权推翻其决定。

本文由入驻币排名的作者撰写,观点仅代表作者本人,绝不代表币排名赞同其观点或证实其描述。
转载联系作者并注明出处:https://www.bipaiming.com/lives/23928.html

回顶部