OpenAI 表示,它希望采纳公众关于如何确保其未来人工智能模型"符合人类价值观"的意见。为此,这家人工智能初创公司今天宣布,正在组建一个由研究人员和工程师组成的新的"集体对齐"(Collective Alignment)团队,以创建一个系统,收集公众对其模型行为的意见,并将其"编码"到 OpenAI 的产品和服务中。
"我们将继续与外部顾问和资助团队合作,包括开展试点,将......原型纳入我们的模型指导中,"OpenAI 在一篇博文中写道。"我们正在招募......来自不同技术背景的研究工程师,帮助我们一起开展这项工作。"
Collective Alignment团队是OpenAI去年5月推出的一项公共计划的产物,该计划旨在为建立"民主程序"以决定人工智能系统应遵循哪些规则的实验提供资助。OpenAI 在首次推出该计划时表示,该计划的目标是资助个人、团队和组织开发概念验证,以回答有关人工智能的防护和治理问题。
在今天的博文中,OpenAI 回顾了获得资助者的工作,其中包括视频聊天界面、人工智能模型众包审计平台以及"将信念映射到可用于微调模型行为的维度的方法"。今天上午,受资助者工作中使用的所有代码都被公开,同时还公布了每项提案的简要摘要和高层次的收获。
OpenAI 试图将该计划与其商业利益剥离开来。但考虑到OpenAI首席执行官山姆-阿尔特曼(Sam Altman)对欧盟和其他地区监管的批评,这有点难以接受。阿尔特曼与OpenAI总裁格雷格-布罗克曼(Greg Brockman)和首席科学家伊利亚-苏茨基弗(Ilya Sutskever)曾多次争辩说,人工智能的创新速度太快了,我们不能指望现有机构能够充分控制这项技术,因此需要众包这项工作。
包括 Meta 在内的一些 OpenAI 竞争对手指责 OpenAI(包括其他公司)试图通过游说反对开放式人工智能研发来确保"对人工智能行业的监管",OpenAI 对此予以否认,并很可能将拨款项目(以及 Collective Alignment 团队)作为其"开放性"的例证。
无论如何,OpenAI 正受到来自政策制定者越来越多的审查,在英国,它正面临着一项有关其与亲密合作伙伴和投资者微软公司关系的调查。这家初创公司最近试图降低其在欧盟的数据隐私监管风险,利用一家位于都柏林的子公司来削弱欧盟某些隐私监管机构单方面采取行动的能力。
毫无疑问,部分原因是为了打消监管机构的疑虑,OpenAI 昨天宣布,它正在与一些组织合作,试图限制其技术被用于通过恶意手段左右或影响选举的方式。这家初创公司所做的努力包括:让使用其工具生成的人工智能图像更加清晰可见,以及开发即使在图像被修改后仍能识别生成内容的方法。
作者:cnBeta
原文链接:今日头条(toutiao.com)