Meta 发布前沿 AI 框架:会暂停开发其认为风险过高的 AI 系统

xxn 阅读:14808 2025-02-04 08:00:40 评论:0

IT之家于2月4日消息,Meta公司首席执行官马克・扎克伯格曾承诺,有朝一日将向公众开放通用人工智能(AGI)—— 即可以完成人类任何任务的人工智能。然而,根据 Meta 最新发布的政策文件,该公司可能会在某些情况下对其内部开发的高性能人工智能系统的发布进行限制。

这份名为“Frontier AI Framework(前沿人工智能框架)”的文件明确列出了两种 Meta 认为具有过高发布风险的AI系统类型:"高风险"系统和"关键风险"系统。按照 Meta 的定义,这两种系统都具备协助实施网络攻击、化学攻击和生物攻击的潜力,区别在于“关键风险”系统可能导致“在拟议的部署环境中无法缓解的灾难性后果”,而“高风险”系统虽可能使攻击更容易实施,但不如“关键风险”系统那样可靠或稳定。

在文件中,Meta列举了一些具体攻击场景,比如“对遵循最佳实践保护的企业级环境进行端到端自动化入侵”和“高影响力生物武器的扩散”。Meta 承认,其文件中列出的潜在灾难性事件远非详尽,但这些灾难事件被认为是 Meta 发布强大AI系统可能直接引发的“最紧迫”和“最有可能”事件。

Meta 表示,在评估系统风险时,不仅依赖单一的实证测试,还会综合内部和外部研究人员的意见,并由“高级别决策者”进行审查。Meta 表示,这是因为目前评估科学尚未“足够强大,以提供决定系统风险性的明确量化指标”。

如果 Meta 判定某个系统为“高风险”,该公司将限制系统在内部的访问权限,并在实施风险缓解措施以将风险降至“中等水平”之前,不会发布该系统。而如果系统被判定为“关键风险”,Meta 将采取未具体说明的安全防护措施,防止系统被非法获取,并暂停开发,直到系统能够被降低危险性为止。

Meta 表示,其“前沿人工智能框架”将会随着人工智能领域的变化而不断演进。之前,Meta 承诺在本月的法国人工智能行动峰会上提前发布该框架。这一举措似乎是对公司“开放”开发系统方法受到的批评的一种回应。Meta 一直采用公开提供人工智能技术的策略,这与选择将系统置于 API 背后的 OpenAI 等公司形成对比。

Meta 在文件中表示:“我们相信,在考虑开发和部署先进人工智能的利弊时,可以以一种能够既保留技术对社会益处、又保持适当风险水平的方式,将技术提供给社会。”

广告声明:文中包含对外跳转链接(包括但不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容