OpenAI于18日发布安全指南指,董事会将有权否决公司领导层推出新版模型的决定。(美联社)
文章来源: 中央社 – 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
开发ChatGPT的人工智慧(AI)公司OpenAI表示,董事会将有权否决公司领导层推出新版模型的决定。
彭博资讯报导,OpenAI于18日在官方网站发布一份名为“准备框架(Preparedness Framework)”的安全指南,规定“追踪、评估、预测和诱发敏感的模型带来灾难性风险的流程”。
该指南是在OpenAI执行长奥特曼(Sam Altman)遭短暂罢免并经历一波动盪后所发布,此举令外界关注到OpenAI董事会与公司高层间的权力之争。
OpenAI在新闻稿中表示,“准备(Preparedness)团队”将持续评估人工智慧系统的风险,以了解其在四个不同类别中的表现,包括潜在的网路安全问题、化学威胁、核威胁和生物威胁,并努力减少该技术可能造成的任何危害。
具体来说,该公司正在监控所谓的“灾难性”风险,在指南中将其定义为“可能导致数千亿美元经济损失或导致许多人严重伤害或死亡的任何风险”。
OpenAI于10月宣布成立“准备团队”,是这家公司负责监督人工智慧安全的三个独立小组之一。另外还有“安全系统”著眼于当前产品,像是GPT-4;以及超级对准(superalignment),重点是未来可能诞生、可能极其强大的人工智慧系统。
麻省理工学院机器学习中心(Center for Deployable Machine Learning)主任马德里(Aleksander Madry)负责领导该团队,他表示,他的团队每个月将向新的内部安全谘询小组发送报告,该小组将分析马德里团队的工作,并向执行长奥特曼以及公司董事会提出建议。
马德里表示,他的团队将反覆评估OpenAI最先进的、尚未发布的人工智慧模型,针对不同类型的知觉风险,将其评为“低”、“中”、“高”或“严重”。该团队还将做出改变,以减少他们在人工智慧中发现的潜在风险,并衡量其有效性。根据新的安全指南,OpenAI未来只会推出评级为“中”或“低”的人工智慧模型。
值得注意的是,根据安全指南,奥特曼和他的领导团队可以根据这些报告决定是否发布新的人工智慧模型,但董事会有权推翻其决定。
近日,奥特曼和董事会之间的宫斗大战吸引全世界目光,在这场内斗落幕之后,董事会已发生巨大改变,同时也引发外界对人工智慧安全的又一次思考。