北京大学两部 DeepSeek 秘籍新出炉!(附全集下载)

xxn 阅读:49322 2025-02-26 22:03:25 评论:0

在几周前,我们分享了来自清华大学的五部 DeepSeek 指南,而北大肖睿团队也发布了两份 DeepSeek “独家秘籍”,现在迫不及待想与大家分享。

或许一些读者还不太清楚 DeepSeek 的定义和用途。

让我们从头开始,探索大语言模型的基本流程、功能限制以及适用场景。

值得一提的是,此次分享的 PDF 下载是原版内容,网络上往往充斥着加了广告的改编版本。

一、大模型基础知识

第一份秘籍《DeepSeek 与 AIGC 应用》旨在为没有AI或IT专业背景的读者解释 DeepSeek 的含义及其用途。

大家常提及的 GPT 其实指的是生成式预训练变换器(Generative Pre-trained Transformer)的缩写。

其核心工作流程包括:

  • 接收提示词

  • 将输入拆分为 token

  • 利用 Transformer 架构处理 token

  • 基于上下文预测下一个 token

  • 根据概率评估选择 token

  • 自回归:重复步骤 4 和 5,直到形成完整句子

  • 通过理解上述流程,我们可以更好地理解大模型生成结果的逻辑。

    其优势在于,具备语言理解、生成、世界知识和一定的推理能力。

    然而,其劣势在于 AI 幻觉、有限的知识库与上下文窗口的局限。

    掌握原理后,我们可以更有效地使用这些聊天机器人。

    二、探索 AIGC 的未来

    在使用这些 AI 工具时,我们需意识到其能力的边界。

    例如,GPT-3.5 和 GPT-4 的上下文长度限制在数千个字。

    面对较长文本时,需采用分段对话、定期总结、使用关键词提醒以及精简输入的策略,以确保大模型不会遗漏我们关注的上下文信息。

    在文本分析方面,它擅长文本统计、摘要生成、分类与总结,而在处理知识更新、语境歧义、新颖和未知类别时效果可能不尽如人意。

    同样,在文本优化上,它能识别和修正错别字、检查和调整语法、优化词汇选择等方面进行润色。

    但在遇到新术语、表达方式或不断变化的语言规则时,大模型也只能无奈表示:“这我可没接触过!”

    三、积极应对 AIGC 的未来

    掌握基础知识后,我们对大模型的能力有了更深入的理解。

    现今可供普通用户商用的 AIGC 工具主要包括:

    • 聊天对话机器人

    • 图像生成工具

    • 音频处理工具

    • 视频生成工具

    • 搜索引擎工具

    当前流行的聊天机器人中,DeepSeek-R1 的强项在于其推理能力,但缺乏处理图像和音频等多模态信息的能力。

    而豆包则在多模态能力上表现更为出色,适合日常互动交流。

    例如,在制作 PPT 时,可以先使用 DeepSeek R1 进行大纲设计,然后通过 Kimi 完成内容生成。

    随着 AI 领域快速发展,上述工具列表可能随时变化,因此我们也需要根据自己的需求和目标,不断更新自己的 AI 工具清单。

    四、DeepSeek R1 提示词运用技巧

    北大的第二份秘籍《DeepSeek 提示词工程与应用场景》则更加专注于 DeepSeek R1 使用中的提示词技巧。

    作为 CoT 思维链(Chain-of-Thought)模型,应打破传统提示词的使用习惯,可以直接“把 AI 当作人类”:

    • 我要(做)XX,给 XX 使用,希望取得 XX 效果,但担忧 XX 问题

    另外,还可以学会“反向引导” DeepSeek,促使其通过自身推理输出更佳结果。

    文中还列出了市场营销、公文写作、编程、数据分析、会议纪要、学术研究等多个领域的应用实例,期待大家去探索。

    关注 IT之家公众号并回复:AI

    即可获取北大原版秘籍,点击此处 或扫描下方二维码,关注后发消息即可获取。

广告声明:文中包含的外部跳转链接(包括但不限于超链接、二维码、口令等),用于传递附加信息,节省选择时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容