结构为王:AI 推理新思路,思维链结构成突破 LLM 高效训练关键

xxn 阅读:18524 2025-02-15 16:03:34 评论:0

IT之家 2 月 15 日消息,科技媒体 marktechpost 昨日(2 月 14 日)发布博文,报道指出加州大学伯克利分校的研究团队提出了一种人工智能训练方法,仅需少量数据即可提升大语言模型(LLM)的推理能力。

提升 LLM 推理能力的难点在于培训模型生成具有结构化自省、验证和回溯的长链式思维(CoT)响应。现有模型的培训过程通常需要在大量数据集上进行昂贵的微调,且许多专有模型的训练方法并不公开。

研究团队提出了一种创新的培训方法,仅使用 17000 个 CoT 示例,微调 Qwen2.5-32B-Instruct 模型,并结合了 SFT 和 LoRA 微调技术,强调优化推理步骤的结构完整性而非内容本身,通过改进逻辑一致性并最大程度减少不必要的计算开销,从而显著提高了 LLM 的推理效率。

研究指出,在增强 LLM 推理性能方面,CoT 的结构发挥着关键作用,改变训练数据的逻辑结构会显著影响模型的准确性,而修改单个推理步骤的影响则微乎其微。

IT之家附上使用新方法后的测试效果如下:

  • AIME 2024:准确率达到 56.7%,提升了 40.0 个百分点。

  • LiveCodeBench:得分 57.0%,提升了 8.1 个百分点。

  • Math-500:达到 90.8%,提升了 6.0 个百分点。

  • AMC 2023:达到 85.0%,提升了 17.5 个百分点。

  • OlympiadBench:达到 60.3%,提升了 12.7 个百分点。

这些结果显示,有效的微调技术能让 LLM 在更少的数据需求下达到与 OpenAI 的 o1-preview 等专有模型相媲美的推理能力。

这项研究表明,将注意力从大规模数据依赖转向结构完整性,可以开发出一种以最少的计算资源确保强大逻辑一致性的培训方法。这种方法减少了对海量数据集的依赖,同时保持了强大的推理能力,使 LLM 更易于访问和扩展。

该研究的成果为未来模型的优化铺平了道路,证实结构化微调策略能有效地增强 LLM 推理能力,而不会影响效率,这标志着复杂的人工智能推理模型在更广泛应用方面迈出了重要一步。

广告声明:文中包含的外部链接用于传递更多信息,节省查找时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容