OpenAI发布安全指南:董事会有权阻止CEO发布新模型
12月19日消息,据官方消息,OpenAI在官方网站发布了一份名为“准备框架(Preparedness Framework)”的安全指南,规定了“跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的流程”。 OpenAI表示,正在采用“准备框架”的测试版本,“准备(Preparedness)团队”将致力于确保前沿人工智能模型的安全。“准备团队”将持续评估人工智能系统,以了解其在四个不同风险类别中的表现。OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。 根据安全指南,领导层可以根据这些报告决定是否发布新的人工智能模型,但董事会有权推翻其决定。
声明:本站所有内容,如无特殊说明或标注,均为采集网络资源,任何内容均不构成投资建议。