同样的模型、不一样的答案,差距往往发生在一行 Prompt 里。本文围绕五大高频实战场景,给出可直接复制的 DeepSeek 提问框架,并穿插《DeepSeek 行业应用大全》中 64 个行业模板精华,帮助读者迅速跑赢 ChatGPT。🌟
剧透! 文末购书送福利了!
大量视频,光看书都不吃亏!
目录
1. Prompt 工程核心原则——角色·场景·限制·期望(R‑S‑C‑O)
6. 多模型协同——DeepSeek × 开源 LLM 组合拳
1. Prompt 工程核心原则——角色·场景·限制·期望(R‑S‑C‑O)
公式:
角色 (Role)
+场景 (Scenario)
+限制 (Constraint)
+期望输出 (Outcome)
虎口要诀: 角色定调,场景定域,限制定边界,期望定格式。
1.1 角色 (Role)
精准职业:资深运营、法律顾问、Python 工程师…
语气与人格:活泼、严谨、第一人称/第三人称。
1.2 场景 (Scenario)
真实业务背景,例如“B 站 3C 数码频道脚本”。
关联上下游系统(OA、ERP、CRM)。
1.3 限制 (Constraint)
字数、风格、格式(Markdown / JSON)。
合规与保密:不得引用内部代码片段。
1.4 期望 (Outcome)
明确交付物:表格、代码块、会议纪要。
量化衡量:阅读时长 ≤ 3 分钟、信息点 ≥ 5 条。
提示:R‑S‑C‑O 四要素写成四行,排版清晰,模型更容易解析。
1.5 模板示例
角色:资深产品经理
场景:撰写面向 C 端用户的版本更新公告
限制:200 字以内;使用轻松幽默口吻;包含 3 个 Emoji;不出现专业术语
期望:以 Markdown 列表形式输出
👆 以上结构即《行业应用大全》第 1~31 号通用模板的底层逻辑,可按需替换关键词。
2. 内容创作场景——AIDA·PAS·金字塔三板斧
模型 | 公式 | 适用内容 | DeepSeek 提示片段 |
---|---|---|---|
AIDA | Attention → Interest → Desire → Action | 广告文案、社媒帖 | "请使用 AIDA 结构生成…" |
PAS | Problem → Agitation → Solution | 软文、开场白 | "采用 PAS 说服模型,问题点列出…" |
金字塔 | 结论先行 → 关键论点 → 论据 | 白皮书、PRD | "请用金字塔结构拆解…" |
2.1 AIDA 示范
角色:新媒体运营专家
场景:推广线上 Python 训练营
限制:<=100 字;加入 2 个技术痛点
期望:AIDA 结构,Markdown 段落
2.2 模型间对比
ChatGPT:英文模板优先,需要手动声明中文。
DeepSeek:内置中文句式库,完成度提升 15~30%。
书中连结:章节 2.3 收录 12 条「创意写作」即用提示词,覆盖微信公众号、知乎、短视频脚本。
3. 代码协作场景——多步思考 + 单元测试注入
3.1 分步拆解策略 (Chain‑of‑Thought)
理解需求:用
# 请先思考再回答
触发推理。设计算法:输出伪代码而非直接代码。
生成代码:根据伪代码输出可运行脚本。
自检:让模型生成 pytest 测试。
3.2 Prompt 片段
角色:Python 大师
场景:优化以下冒泡排序代码
限制:必须给出时间复杂度分析;附 1 个 pytest
期望:分四步输出:思考→伪代码→代码→测试
3.3 效果评估
DeepSeek:在中文注释与 pytest 均表现稳定;
ChatGPT:易在中文注释翻译上偏差。
《行业应用大全》IT & 互联网模块收录 8 条「代码重构/调试」高级模板,可直接引入 VS Code 插件。
4. 数据分析场景——表格描述 + JSON 指令
4.1 描述式表格 Prompt
角色:数据科学家
场景:分析以下销售数据
限制:用 Markdown 表格输出 Top5 城市的 GMV、环比增长、备注
期望:表格下方给出 3 条增长策略
4.2 结构化 JSON Prompt
输出格式严格遵守 JSON Schema:
{
"city": string,
"gmv": number,
"growth": string,
"suggestion": string
}
🔍 提示:显式声明 "Only return JSON, no other text.",可让 DeepSeek 减少前后缀。
书中【科技金融】章节内含 "财报分析"、"KPI 预测" 10+ JSON 模板,覆盖各种财务字段。
5. 生活助理场景——多轮上下文 + 用户画像持久化
5.1 用户画像注入
系统提示:
- 名字:Alex
- 职业:UI 设计师
- 偏好:低糖饮食、马拉松
5.2 会话管理
意图识别:健康、理财、亲子…
槽位填充:日期、预算、目标等。
总结并写入记忆:每日跑步公里数。
5.3 Prompt 示例
角色:私人健康教练
场景:根据我的周跑步记录优化下周训练计划
限制:目标 10 KM 赛事;加入拉伸建议
期望:按天列出配速、距离、拉伸
行业模板:书籍【教育培训】【智慧城市】章节中提供“学习计划”“出行助手”等持久化对话蓝本。
6. 多模型协同——DeepSeek × 开源 LLM 组合拳
任务阶段 | 推荐模型 | 理由 |
中文需求解析 | DeepSeek | 方言、俚语鲁棒性高 |
代码生成 | StarCoder / CodeQwen | 代码 Token 化更优 |
英文润色 | GPT‑4o | 长文本一致性佳 |
结果审校 | DeepSeek | 中文差错率低 |
RAG 流程:DeepSeek 负责摘要 → 结果丢入 Faiss 向量库 → Open‑Source LLM 分块问答 → DeepSeek 聚合输出。
7. 实操环节——优化「年终总结」Prompt
目标: 输出长度 ↓30%,要点 ↑2×
7.1 原始 Prompt(154 字)
“请帮我写一篇 1500 字的年终总结,要包含所有项目进度、个人成长和团队贡献。”
7.2 优化思路
角色:HR BP
场景:P7 后端工程师述职
限制:1000 字以内;分三大板块;每板块 3~5 子弹点
期望:Markdown 二级标题 + 列表
7.3 优化后 Prompt(88 字)
角色:HR 业务伙伴
场景:P7 后端开发年终述职
限制:1000 字内;3 大板块(项目、成长、团队);每板块 3~5 bullet;语气务实
期望:Markdown 二级标题 + 列表
7.4 效果对比
指标 | 原始 | 优化 | 变化 |
字数 | ≈1500 | ≈980 | ↓34% |
关键要点 | 12 | 24 | ↑100% |
逻辑层次 | 弱 | 强 | – |
挑战:试着把限制放宽到 800 字,同时要求输出 JSON 摘要,观察要点密度变化。
8. 常见误区与排坑
误区 | 现象 | 解决 |
角色缺失 | 模型输出空泛 | 明确职业 & 语气 |
限制过多 | 模型拒答或缩水 | 逐条剔除测试 |
期望含糊 | 格式混乱 | 用示例或 JSON Schema |
直接多语种 | 中英混杂 | 分步翻译而非一次性 |
总结
本文通过五大典型场景演示了 R‑S‑C‑O Prompt 工程套路,并示范了年终总结 Prompt 的性能飞跃。若需快速落地行业方案,可参阅《DeepSeek 行业应用大全》中的 66 个场景指令。欢迎读者在评论区贴出自己的 Prompt 优化案例。