OpenAI、谷歌微软等设立1000万美元AI安全基金

谷歌、微软、OpenAI 和 Anthropic 发布联合声明,任命美国智库学会高管 Chris Meserole 为前沿模型论坛 (Frontier Model Forum) 首任执行董事。并宣布设立 1000 万美元的 AI 安全基金,“以推动正在进行的工具开发研究,帮助社会能够有效地测试和评估最有能力的 AI 模型。”

前沿模型论坛由微软、OpenAI、谷歌和 Anthropic 在今年 7 月联合创立而成,是一个专注于确保安全和负责任地开发前沿人工智能模型的行业机构。该论坛旨在帮助:

  • 推动人工智能安全研究,促进负责任地开发前沿模型并最大限度地降低潜在风险;
  • 确定前沿模型的安全最佳实践;
  • 与政策制定者、学术界、民间社会和其他方面分享知识,推动负责任的人工智能发展;
  • 以及大力支持开发有助于应对社会挑战的 AI 应用程序。

公告指出,AI 安全基金将支持来自世界各地附属于学术机构、研究机构和初创公司的独立研究人员。初始资金来自 Anthropic、谷歌、微软和 OpenAI,以及其他慈善合作伙伴。

基金的主要重点将在于,支持开发新的模型评估技术,以帮助开发和测试前沿系统潜在危险能力的评估技术。“我们相信,增加该领域的资金将有助于提高安全标准,并为行业、政府和民间社会应对 AI 系统带来的挑战所需的缓解和控制提供见解。 ”

该基金将在未来几个月内征集提案。前沿模型论坛还计划成立一个顾问委员会,以帮助指导其战略和优先事项。

1000 万美元不算小数目,但在 AI 安全研究的背景下以及与前沿模式论坛成员在商业活动上的花费相比,这一数目就 “显得相当保守了”。科技媒体 TechCrunch 指出,仅今年一年,Anthropic 就从亚马逊筹集了数十亿美元,用于开发下一代 AI 助手,此前谷歌也向其投资了 300 美元。

且与其他 AI 安全基金相比,该基金的规模也很小。根据博客 Less Wrong 的分析,由 Facebook 创始人 (Dustin Moskovitz 联合创办的资助和研究基金会 Open Philanthropy 已为 AI 安全捐赠了约 3.07 亿美元。

公益公司 “The Survival and Flourishing Fund” 也已向 AI 安全项目捐赠了约 3000 万美元。美国国家科学基金会表示,未来两年将斥资 2000 万美元用于 AI 安全研究,部分资金由 Open Philanthropy 资助。

“前沿模型论坛暗示下一步将成立一个规模更大的基金。如果这一目标实现,它可能有机会推动 AI 安全研究 —— 前提是我们相信该基金的明确营利性支持者不会对研究施加不当影响。但无论你如何划分,首批资金似乎都过于有限,无法取得多大成就。”

相关链接:https://openai.com/blog/frontier-model-forum-updates

来源:OSC开源社区

上一篇:IDC发布全球信息技术行业十大预测

下一篇:Apache ActiveMQ远程代码执行漏洞 (CNVD-2023-69477) 安全通告