思考越多,偏见越深:推理模型中的长度驱动位置偏差研究
一项来自 arXiv 的新研究揭示了一个反直觉的现象:推理模型(如 DeepSeek-R1)在链式思维过程中,思考得越长,反而越容易受到选项位置偏差的影响。
核心发现
传统观点认为,链式思维推理和经过推理优化的模型(如 DeepSeek-R1)能够通过仔细思考减少浅层启发式偏差。然而,这篇题为《More Thinking, More Bias: Length-Driven Position Bias in Reasoning Models》的论文在多项选择题问答任务中测试了位置偏差,得出了截然不同的结论:在具有推理能力的模型内部,每个问题的位置偏差与推理轨迹的长度成正比。
研究在 13 种推理模式配置(包括两个 R1 蒸馏的 7-8B 模型、两个使用 CoT 提示的基础模型,以及 671B 的 DeepSeek-R1)上进行了实验,涵盖 MMLU、ARC-Challenge 和 GPQA 三个基准。结果显示,12 种配置在控制准确率后,轨迹长度与位置偏差得分(PBS)之间呈正偏相关,相关系数在 0.11 到 0.41 之间(所有 p < 0.05)。所有 12 个开放权重推理模式配置在长度四分位数上均表现出单调递增的 PBS。
因果证据与规模效应
研究通过截断干预提供了因果证据:从轨迹后期点恢复的续写,越来越倾向于转向位置偏好的选项(对于 R1-Qwen-7B,在不同绝对位置桶中,转向比例从 16% 增加到 32%)。在 671B 的 DeepSeek-R1 上,聚合 PBS 降至 0.019,但长度效应仍然在最长的四分位数中显现(PBS = 0.071),这表明准确率掩盖了长度驱动偏差的表达,而非消除了底层机制。
区分两种偏差
研究还发现,直接答案位置偏差是一个不同的现象,具有不同的特征:在 Llama-Instruct-direct 中表现强烈,在 Qwen-Instruct-direct 中微弱,并且与轨迹长度无关。链式思维推理将这种基线偏差替换为长度累积偏差。
启示与工具
这项研究对 AI 评估有重要启示:具有推理能力的模型不应默认被视为对选项顺序鲁棒。论文还提供了一个诊断工具包(PBS、承诺变化点、有效切换、截断探测),用于审计推理模型中的位置偏差。
简单来说,模型思考得越深入,反而可能越固执地偏爱某个位置选项——这提醒我们,“想得多”并不等于“想得准”。