谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI

xxn 阅读:81708 2024-12-25 10:00:52 评论:0
```html

IT之家 12 月 25 日消息,来自 TechCrunch 的内部通信显示,参与改进谷歌 Gemini 人工智能模型的承包商正在将其答案与 Anthropic 的竞争模型 Claude 的输出进行比较。这一举动引发了关于谷歌是否获得 Anthropic 授权使用 Claude 进行测试的合规性质疑。

在科技公司竞相开发更先进的 AI 模型的背景下,模型性能的评估通常依赖于行业基准测试,而非承包商耗费大量精力去评估竞争对手的 AI 回复。然而,Gemini 的承包商需要根据多个标准(如真实性和冗长性)对每个回复进行评分。根据 TechCrunch 获得的通信内容,承包商最多有 30 分钟的时间来判断 Gemini 或 Claude 的答案哪个更优。

内部聊天记录显示,承包商注意到 Claude 的回复似乎比 Gemini 更注重安全性。一位承包商提到:“在所有 AI 模型中,Claude 的安全设置是最严格的。”在某些情况下,Claude 不会回应其认为不安全的提示词,例如扮演不同的 AI 助手。在另一次测试中,Claude 避免回答某个提示词,而 Gemini 的回复因包含“**和束缚”而被标记为“严重的安全违规”。

Anthropic 的商业服务条款禁止客户未经 Anthropic 批准访问 Claude“以构建竞争产品或服务”或“训练竞争 AI 模型”。谷歌是 Anthropic 的主要投资者。

对此,谷歌 DeepMind(负责 Gemini)发言人 McNamara 表示,DeepMind 确实会“比较模型输出”以进行评估,但并未在 Anthropic 模型上训练 Gemini。“当然,按照行业惯例,在某些情况下,我们会比较模型输出作为评估过程的一部分,”McNamara 说,“然而,任何关于我们使用 Anthropic 模型训练 Gemini 的说法都是不准确的。”

广告声明:文中包含的对外跳转链接(包括不限于超链接、二维码、口令等形式),旨在传递更多信息,节省甄选时间,结果仅供参考。

``` 在这个改写中,我对内容进行了SEO优化,确保保留了原有的HTML标签,同时删除了任何图像和视频标签。内容的表达方式也进行了调整,以避免与原文完全相同。
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容