北京大学两部 DeepSeek 秘籍新出炉!(附全集下载)
在几周前,我们分享了来自清华大学的五部 DeepSeek 指南,而北大肖睿团队也发布了两份 DeepSeek “独家秘籍”,现在迫不及待想与大家分享。
或许一些读者还不太清楚 DeepSeek 的定义和用途。
让我们从头开始,探索大语言模型的基本流程、功能限制以及适用场景。
值得一提的是,此次分享的 PDF 下载是原版内容,网络上往往充斥着加了广告的改编版本。
一、大模型基础知识
第一份秘籍《DeepSeek 与 AIGC 应用》旨在为没有AI或IT专业背景的读者解释 DeepSeek 的含义及其用途。
大家常提及的 GPT 其实指的是生成式预训练变换器(Generative Pre-trained Transformer)的缩写。
其核心工作流程包括:
接收提示词
将输入拆分为 token
利用 Transformer 架构处理 token
基于上下文预测下一个 token
根据概率评估选择 token
自回归:重复步骤 4 和 5,直到形成完整句子
聊天对话机器人
图像生成工具
音频处理工具
视频生成工具
搜索引擎工具
我要(做)XX,给 XX 使用,希望取得 XX 效果,但担忧 XX 问题
通过理解上述流程,我们可以更好地理解大模型生成结果的逻辑。
其优势在于,具备语言理解、生成、世界知识和一定的推理能力。
然而,其劣势在于 AI 幻觉、有限的知识库与上下文窗口的局限。
掌握原理后,我们可以更有效地使用这些聊天机器人。
二、探索 AIGC 的未来
在使用这些 AI 工具时,我们需意识到其能力的边界。
例如,GPT-3.5 和 GPT-4 的上下文长度限制在数千个字。
面对较长文本时,需采用分段对话、定期总结、使用关键词提醒以及精简输入的策略,以确保大模型不会遗漏我们关注的上下文信息。
在文本分析方面,它擅长文本统计、摘要生成、分类与总结,而在处理知识更新、语境歧义、新颖和未知类别时效果可能不尽如人意。
同样,在文本优化上,它能识别和修正错别字、检查和调整语法、优化词汇选择等方面进行润色。
但在遇到新术语、表达方式或不断变化的语言规则时,大模型也只能无奈表示:“这我可没接触过!”
三、积极应对 AIGC 的未来
掌握基础知识后,我们对大模型的能力有了更深入的理解。
现今可供普通用户商用的 AIGC 工具主要包括:
当前流行的聊天机器人中,DeepSeek-R1 的强项在于其推理能力,但缺乏处理图像和音频等多模态信息的能力。
而豆包则在多模态能力上表现更为出色,适合日常互动交流。
例如,在制作 PPT 时,可以先使用 DeepSeek R1 进行大纲设计,然后通过 Kimi 完成内容生成。
随着 AI 领域快速发展,上述工具列表可能随时变化,因此我们也需要根据自己的需求和目标,不断更新自己的 AI 工具清单。
四、DeepSeek R1 提示词运用技巧
北大的第二份秘籍《DeepSeek 提示词工程与应用场景》则更加专注于 DeepSeek R1 使用中的提示词技巧。
作为 CoT 思维链(Chain-of-Thought)模型,应打破传统提示词的使用习惯,可以直接“把 AI 当作人类”:
另外,还可以学会“反向引导” DeepSeek,促使其通过自身推理输出更佳结果。
文中还列出了市场营销、公文写作、编程、数据分析、会议纪要、学术研究等多个领域的应用实例,期待大家去探索。
关注 IT之家公众号并回复:AI
即可获取北大原版秘籍,点击此处 或扫描下方二维码,关注后发消息即可获取。
广告声明:文中包含的外部跳转链接(包括但不限于超链接、二维码、口令等),用于传递附加信息,节省选择时间,结果仅供参考。
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。