在之前分享的LLM先验偏见研究基础上,结合团队内部的实践讨论与补充研究,本文将进一步深化核心逻辑、纠正认知偏差,并分享可直接落地的工程化方案,同时补充强化学习中奖励信号稀疏问题的实操思路。
此前提到的移除变量名、图像背景等方案,本质是应急性去先验,适用于短期快速降低误差,但并非最优解,其核心问题是丢失了变量本身的上下文信息,导致模型无法形成完整的数据分析能力。正确的落地逻辑应是递进式平衡:
- 应急方案:移除强先验触发线索
- 适用场景:需快速上线、数据量少的场景;
- 操作细节:将“钻石克拉-价格”等有明确常识关联的变量名,替换为“F1-Feature 1”“F2-Feature 2”,图像仅保留核心目标(如动物本身)、移除场景背景;
- 注意事项:该方案仅能解决先验主导问题,无法利用上下文,需搭配简单的结果校验(如人工抽查异常结论)。
- 工程首选:结构化工作流(先易后难)
- 核心逻辑:让模型先完成无争议的视觉解读,再结合先验知识分析,避免先验干扰事实判断;
- 实操步骤:
- 第一步:让模型仅解读图表/图像的客观特征(如“x轴数值随y轴数值增大而减小”“图像中动物腿部数量为3”),不允许调用常识;
- 第二步:输入变量名、场景背景等上下文,让模型基于第一步的客观结论,补充常识性解读(如“从常识看,钻石克拉数与价格通常正相关,当前数据呈现负相关,需核实数据真实性”);
- 优势:兼顾客观事实与上下文利用,误差率比单纯移除变量名降低(参考Vo et al., 2025)。
- 长期优化:反事实数据SFT
- 适用场景:有足量标注数据、追求模型原生能力提升的场景;
- 操作细节:收集先验与视觉冲突的反事实样本(如负相关的钻石数据、三条腿的动物图像),按“客观特征+上下文+正确结论”的格式构建数据集,对模型进行监督微调;
- 参考效果:专项训练的2B参数小模型(如Moondream-2B),在反事实场景的准确率提升,超过通用大模型(Vo et al., 2025)。
参考文献
Vo, A., Nguyen, K.-N., Taesiri, M. R., Dang, V. T., Nguyen, A. T., & Kim, D. (2025). Vision language models are biased. arXiv preprint arXiv:2505.23941.
Wickham, H., & Bryan, J. (2025). LLMs interpret plots well, until expectations interfere. Posit Blog. https://posit.co/blog/llm-plot-interpretation/