任务难度决定提示词策略:简单任务用zero-shot,复杂任务需few-shot示例;zero-shot要求动词开头、格式明确、表述精准;few-shot用于歧义或专业场景,需覆盖典型输入、输出一致、无干扰信息;效果不佳时按信号切换策略。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

任务难度决定提示词策略——简单任务用 zero-shot,复杂任务必须加 few-shot 示例。
zero-shot 适合结构清晰、定义明确的任务
当任务有标准答案、输入输出格式固定,且模型在预训练中见过类似模式时,直接描述指令就能生效。比如:“把下面这句话翻译成英文”“判断这个句子的情感是正面、负面还是中性”。不需要给例子,模型能靠已有知识推理。
建议这样写提示词:
- 用动词开头,明确动作(如“提取”“分类”“改写”)
- 限定输出格式(如“只输出一个词”“用 JSON 格式返回”)
- 避免模糊表述(不说“更好一点”,而说“更简洁,控制在15字内”)
few-shot 是应对歧义、隐含规则或领域术语的解药
当任务依赖上下文逻辑、行业惯例,或输出形式不唯一时,光靠指令容易跑偏。比如法律条款摘要、小众方言转普通话、特定风格的文案仿写。这时候给 2–4 个高质量示例,等于帮模型“校准理解方向”。
关键不是数量多,而是示例要:
- 覆盖典型输入类型(长句/短句/带数字/含否定等)
- 输出严格一致(格式、粒度、语气都统一)
- 避免干扰信息(不加解释、不写思考过程,只留 input→output)
任务边界模糊?先试 zero-shot,再按需补 few-shot
实际操作中不用一开始就决定方案。可先用一句清晰指令测试效果;如果结果不稳定、漏信息、格式错乱,就挑出最常出错的 1–2 类样本,做成 few-shot 插入提示词头部。多数情况下,2 个精准示例比 5 个泛泛之例更有效。
注意两个信号,说明该切到 few-shot:
- 模型反复忽略某类约束(如总忘记加单位、总多输出一行)
- 同一输入多次调用结果差异大(说明指令没锚定住行为)
别让提示词本身成为新难点
few-shot 不是堆例子,zero-shot 也不是越长越好。核心是降低模型的理解成本:用它熟悉的表达方式,给它能对齐的参照系。任务越靠近日常语言,zero-shot 越稳;越靠近专业闭环,few-shot 越必要。
不复杂但容易忽略。









