人工智能研究公司OpenAI表示,即使公司领导层认为人工智能(AI)模型足够安全,其董事会也可以选择推迟发布。这是该公司授权其董事加强尖端技术开发安全保障措施的另一个明显迹象。 周一发布的一套指导方针详细说明了这一决策流程,并解释了OpenAI计划如何应对其最强大人工智能系统可能带来的极端风险。该指导方针发布前,OpenAI首席执行官萨姆·奥特曼(Sam Altman)曾被董事会短暂罢免,公司经历了一段动荡时期,这使得董事和公司高管之间的权力平衡成为人们关注的焦点。 OpenAI最近组建的“准备”(Preparedness)团队表示,它将继续评估公司的人工智能系统,以确定它们在四个不同类别中的表现,包括潜在的网络安全问题以及化学武器、核武器以及生物武器威胁,并努力减少该技术可能造成的任何危害。 OpenAI在10月份宣布成立“准备”团队,使其成为该公司监督人工智能安全的三个独立团队之一。另外两个团队分别是“安全系统”团队,着眼于当前的产品,如GPT-4,以及“超级对齐”(Superalignment)团队,专注于未来可能存在的极其强大的人工智能系统。 责编:聚观365 此内容归聚观365整编发布,未经聚观365书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。
发表评论 取消回复