OpenAI AI 安全策略遭质疑,前高管批评其“篡改公司历史”
IT之家最新消息显示,根据外媒Wccftech报道,OpenAI最近公布了其谨慎、分阶段部署AI模型的方法,并以GPT-2的发布为例。这一示例引起了前OpenAI政策研究员Miles Brundage的批评,指责公司在处理AI安全方面存在偏差。
OpenAI发布的文件详细阐述了其对AI安全和模型部署的态度。公司强调在处理现有系统时始终保持谨慎,并提及GPT-2是其谨慎发布策略的一部分。公司相信通过从现有工具中学习,可以确保未来系统的安全。
IT之家附文件摘要如下:
在一个不连续的世界中…… 安全的教训来自于对当今系统的极度谨慎,尤其是相对于它们表现出来的力量,这正是我们对GPT-2的方法。我们现在将第一个AGI视为逐步增加有用性的系统中的一部分… 在连续的世界中,确保下一个系统安全且有益的方式是从当前系统中学习。
曾担任公司政策研究负责人多年的Miles Brundage坚称,GPT-2的发布也是采取逐步推进方式,OpenAI在每个阶段都分享相关信息,安全专家也对公司处理模型的谨慎态度表示认可。他认为,GPT-2的逐步发布与公司当前的逐步部署策略一致,并认为过去的谨慎举措是必要且负责任的。
“这篇文章大部分内容都很好,我为那些致力于其中所讨论的实质性工作的人们点赞。但我非常不满 / 担忧‘AGI分步实现而非一蹴而就’这一说法,它以令人不安的方式重写了GPT-2的历史。”
Brundage还表达了对OpenAI声称AGI将通过逐步发展而非突发突破的说法的担忧。他指出公司歪曲了GPT-2发布历史并篡改安全历史的做法令人担忧。他还表示,OpenAI发布该文件的目的可能是为安全问题设立标准,或将这些问题视为过度反应,可能带来巨大的风险,尤其是在AI系统正在日益进步的当下。
OpenAI并非第一次因过度追求进步和利润而忽视长期安全问题而受到批评。像Brundage这样的专家担心,如果不对AI安全保持谨慎,未来可能面临的风险将十分严重。
广告声明:文中含有的对外跳转链接(包括但不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。