字节复旦团队推出自适应推理框架摆脱模型对思维链过度依赖
过度依赖CoT思维链推理会降低模型性能,有新解了!
来自字节、复旦大学的研究人员提出自适应推理框架CAR,能根据模型困惑度动态选择短回答或详细的长文本推理,最终实现了准确性与效率的最佳平衡。
推理能力的进步极大提升了大语言模型(LLMs)和多模态大语言模型(MLLMs)在各类任务中的表现。
但已有研究发现,长CoT推理并非总能提升准确率,甚至会削弱模型处理简单任务的能力(可能产生冗长输出)。
为此,研究人员提出了CAR这一基于置信度的自适应推理框架,它首先生成简短回答并评估困惑度,仅在模型置信度低(困惑度高)时触发推理。
在多模态视觉问答、关键信息提取及文本推理等多个基准测试中,CAR超越了单纯的短回答与长推理方法,在准确性与效率之间取得了最佳平衡。