这篇论文揭示了 o1 类大语言模型在解决简单问题时过度思考的现象,并通过提出新的效率指标和自训练优化方法,在不损失模型性能的前提下显著减少了计算资源的消耗,挑战了“思考越多越好”的传统观念。 [CL]《Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs》X Chen, J Xu, T Liang, Z He... [Tencent AI Lab] (2024) 网页链接 #机器学习##人工智能##论文##AI创造营#