1 min read

LLM:概率引导的高价值信号筛选

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:二阶段FN分层分析与模型提升空间测算 2024-09-12
6 LLM:二阶段FN分层分析与模型提升空间测算(2) 2024-09-12
7 LLM:二阶段FN分层分析与模型提升空间测算(3) 2024-09-12
8 LLM:二阶段FN分层分析与模型提升空间测算(4) 2024-09-12
9 LLM:推理不可复现的探索 2025-06-11
10 LLM:SFT 与 RL 的关系 2025-07-29
11 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
12 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
13 LLM:低数据场景的决策树生成 2025-08-03
14 LLM:低数据场景的决策树生成(2)落地冷启动 2025-08-03
15 LLM:表格数据特征工程 2025-08-03
16 LLM:撰写大模型落地提示词的关键 2025-08-27
17 LLM:从 Prompt 设计到工作流落地 2025-08-28
18 LLM:RL's Razor 抗遗忘 2025-09-04
19 LLM:RL's Razor 抗遗忘(2) 2025-09-04
20 LLM:RL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
21 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
22 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
23 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
24 LLM:幻觉成因与解决 2025-09-08
25 LLM:Agent 逻辑与应用场景 2025-09-23
26 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
27 LLM:近似on-policy数据抗遗忘 2025-10-21
28 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
29 LLM:幻觉治理 2025-10-28
30 LLM:先验偏见(1)变量名带偏判断 2025-11-13
31 LLM:先验偏见(2)分层分析应对 2025-11-13
32 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
33 LLM:分层落地 2025-11-13
34 LLM:零样本在金融场景落地 2025-11-13
35 LLM:跨难度泛化的局限与量化 2025-11-26
36 LLM:重复提示词解锁非推理性能上限 2025-12-17
37 LLM:用失败样本提升指令遵循能力 2025-12-29
38 LLM:低成本安全检测的级联方案 2026-01-16
39 LLM:定性编码的假阳性解决方案 2026-01-16
40 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
41 LLM:先验偏见(5)工程化方案 2026-01-22
42 LLM:SimRL(1)分层评估 2026-02-03
43 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03

在大语言模型(LLM)的微调发展中,曾长期处于单一参考对齐的阶段:监督微调(SFT)强制模型在Token层面匹配唯一参考答案,却忽略了语言同一语义可多表达的特性。这一模式逐渐暴露出过拟合等问题,ProFit方法的出现,推动LLM微调进入概率引导高价值信号筛选的探索(Liu et al., 2026)。

一、传统SFT的核心困境

传统SFT的自回归训练目标,要求模型严格对齐单一参考的每个Token,但自然语言存在一对多的表达特性——比如”6乘7的结果是42”,可表述为”答案是42”“这题结果为42”等(图1)。这种刚性对齐会让模型过度拟合非核心的风格表达,而非学习语义逻辑(Liu et al., 2026)。

同一语义的多种表达方式

Figure 1: 同一语义的多种表达方式

为解决这一问题,研究者曾尝试多参考SFT(提供多个参考答案),但该方案存在三种缺陷:标注成本随参考数量线性增加;不同答案的梯度方向可能冲突,导致训练不稳定;在GPQA-Diamond等复杂任务中,性能甚至出现下降。

传统SFT的核心矛盾可归结为低价值的”琐碎Token”(如风格化连接词)梯度更大,会掩盖”核心Token”(如推理逻辑、关键数值)的优化方向,最终引发过拟合。

二、ProFit:Token概率与语义的关联

ProFit的核心依据是Token预测概率与语义重要性强相关这一发现,该结论经假设检验验证( \(p=1×10⁻⁶\) )(Liu et al., 2026)。LLM输出的Token可分为两类:

  • 核心Token( \(\mathrm{Core\ Tokens}\) ):预测概率高,均值达0.768,承载关键推理逻辑或语义信息;

  • 琐碎Token( \(\mathrm{Trivial\ Tokens}\) ):预测概率低,均值仅0.485,多为可替换的风格化表达。

这一差异可通过Token概率分布直方图直观体现(图2):琐碎Token集中在00.4的低概率区间,核心Token集中在0.81.0的高概率区间(Liu et al., 2026)。这一分布为ProFit的Token筛选提供了客观依据。

Token概率分布直方图:核心Token与琐碎Token的概率区间差异

Figure 2: Token概率分布直方图:核心Token与琐碎Token的概率区间差异

三、ProFit的具体方法

ProFit的核心是概率引导的Token掩码策略,具体包含两部分(Liu et al., 2026):

  1. 掩码机制:通过停止梯度( \(s\mathrm{g}(\cdot)\) )操作获取Token的预测概率 \(\pi_{\theta}(\mathrm{y}_t^* | \mathrm{x}, \mathrm{y}_{<<<t}^*)\) ,再与静态阈值 \(\tau\) 对比,生成二进制掩码 \(\mathcal{M}_t = \mathbb{I}\left[sg\left(\pi_{\theta}(\mathrm{y}_t^* | \mathrm{x}, \mathrm{y}_{<<<t}^*)\right) > \tau\right]\) ——若Token概率高于 \(\tau\) ,则保留( \(\mathcal{M}_t=1\) ),否则掩码( \(\mathcal{M}_t=0\) )。

  2. 优化目标:仅对保留的Token计算损失,公式为 \(\mathcal{L}_{\mathrm{ProFit}}(\theta) = \mathbb{E}_{\mathcal{D}}\left[-\frac{1}{T} \sum_{t=1}^{T} \mathcal{M}_t \log \pi_{\theta}(\mathrm{y}_t^* | \mathrm{x}, \mathrm{y}_{<<<t}^*)\right]\) ,其中 \(T\) 是参考序列的长度。

其核心逻辑是:仅让高概率的核心Token参与梯度更新,过滤低价值的琐碎Token干扰。

四、实验验证结果

在0.6B到14B规模的模型(包括Qwen3、Llama-3.1等)及推理、数学类基准(如GPQA-Diamond、GSM8K)中,ProFit的表现全面优于传统SFT(Liu et al., 2026):

  • 性能提升:Qwen3-4B的平均准确率提升10.94%;

  • 修复负迁移:Qwen3-14B在传统SFT中出现性能下降,ProFit逆转该趋势并实现提升;

  • 训练效率:首训练epoch的准确率达60.1%,超过传统SFT的峰值水平,且无灾难性遗忘问题;作为强化学习(RL)的初始化模型时,性能也处于最优水平。

在数学解题的实际文本中,ProFit通过”颜色+高亮”标记高概率核心Token(如公式、关键数值,见图3),进一步验证了其筛选逻辑的有效性:浅色未高亮的低概率Token多为”we are given”等可替换过渡语句(Liu et al., 2026)。

数学解题文本中的核心Token高亮标记

Figure 3: 数学解题文本中的核心Token高亮标记

五、落地价值:兼顾低成本与多样性

传统SFT方案中,低成本与表达多样性存在矛盾:Vanilla SFT仅用一个参考,成本低但表达单一;Multi-SFT用多个参考,多样性高但成本陡增。而ProFit通过聚焦核心Token训练,既保持了单一参考的低成本,又允许模型自主选择琐碎Token的表达,同时实现了低成本与多样性的兼顾(Liu et al., 2026)。

六、局限

ProFit的适用场景存在限制:仅适配推理、数学等逻辑密集型任务;在创意写作(如小说、广告)中,低概率Token可能是风格亮点,无法直接掩码。此外,ProFit采用静态阈值 \(\tau\) ,未根据样本难度动态调整,适配性有待提升(Liu et al., 2026)。

参考文献

Liu, T., Wu, T., Yang, R., Sun, S., Wang, J., & Yang, Y. (2026). ProFit: Leveraging high-value signals in SFT via probability-guided token selection. arXiv Preprint arXiv:2601.09195.

LLM 系列导航

1 LLM:Function Call(1)从传统工具调用到函数驱动 2020-09-08
2 LLM:关注因果推断研究进展 2023-06-22
3 LLM:人机协作 2024-05-19
4 LLM:分层管理风险定性 2024-08-08
5 LLM:二阶段FN分层分析与模型提升空间测算 2024-09-12
6 LLM:二阶段FN分层分析与模型提升空间测算(2) 2024-09-12
7 LLM:二阶段FN分层分析与模型提升空间测算(3) 2024-09-12
8 LLM:二阶段FN分层分析与模型提升空间测算(4) 2024-09-12
9 LLM:推理不可复现的探索 2025-06-11
10 LLM:SFT 与 RL 的关系 2025-07-29
11 LLM:SFT 与 RL 的关系(理论修正与实践补充) 2025-07-30
12 LLM:SFT 与 RL 的关系(理论修正与实践补充II) 2025-07-31
13 LLM:低数据场景的决策树生成 2025-08-03
14 LLM:低数据场景的决策树生成(2)落地冷启动 2025-08-03
15 LLM:表格数据特征工程 2025-08-03
16 LLM:撰写大模型落地提示词的关键 2025-08-27
17 LLM:从 Prompt 设计到工作流落地 2025-08-28
18 LLM:RL's Razor 抗遗忘 2025-09-04
19 LLM:RL's Razor 抗遗忘(2) 2025-09-04
20 LLM:RL's Razor 抗遗忘(3)SFT 与 RL 的认知偏差及应用 2025-09-04
21 LLM:RL's Razor 抗遗忘(4)on-policy认知误区 2025-09-04
22 LLM:RL's Razor 抗遗忘(5)RL在线生成样本 2025-09-04
23 LLM:MuseGraph融合GNN与LLM的通用图挖掘新框架 2025-09-05
24 LLM:幻觉成因与解决 2025-09-08
25 LLM:Agent 逻辑与应用场景 2025-09-23
26 LLM:拆解大模型缩放定律失效的三重分解 2025-10-05
27 LLM:近似on-policy数据抗遗忘 2025-10-21
28 LLM:近似on-policy数据抗遗忘(2)Iterative-SFT 2025-10-21
29 LLM:幻觉治理 2025-10-28
30 LLM:先验偏见(1)变量名带偏判断 2025-11-13
31 LLM:先验偏见(2)分层分析应对 2025-11-13
32 LLM:先验偏见(3)实验效度的场景化适配 2025-11-13
33 LLM:分层落地 2025-11-13
34 LLM:零样本在金融场景落地 2025-11-13
35 LLM:跨难度泛化的局限与量化 2025-11-26
36 LLM:重复提示词解锁非推理性能上限 2025-12-17
37 LLM:用失败样本提升指令遵循能力 2025-12-29
38 LLM:低成本安全检测的级联方案 2026-01-16
39 LLM:定性编码的假阳性解决方案 2026-01-16
40 LLM:先验偏见(4)挑战与落地解决方案 2026-01-22
41 LLM:先验偏见(5)工程化方案 2026-01-22
42 LLM:SimRL(1)分层评估 2026-02-03
43 LLM:SimRL(2)理论逻辑与工程落地 2026-02-03