大模型如何变得更“聪明”?斯坦福大学揭秘自我改进的关键:四种认知行为
人工智能领域近年来取得了令人瞩目的进展,尤其是在大语言模型 (LLM) 方面。 许多模型,例如 Qwen,展现出惊人的能力,甚至能够自我检查答案并纠正错误。 然而,并非所有模型都具备同等的自我改进能力。 同样是给予额外的计算资源和 “思考” 时间,有些模型能够充分利用这些资源,性能大幅提升,而另一些模型却收效甚微。 这一现象引发了人们的思考: 究竟是什么因素导致了这种差异?
人工智能领域近年来取得了令人瞩目的进展,尤其是在大语言模型 (LLM) 方面。 许多模型,例如 Qwen,展现出惊人的能力,甚至能够自我检查答案并纠正错误。 然而,并非所有模型都具备同等的自我改进能力。 同样是给予额外的计算资源和 “思考” 时间,有些模型能够充分利用这些资源,性能大幅提升,而另一些模型却收效甚微。 这一现象引发了人们的思考: 究竟是什么因素导致了这种差异?
OpenAI 的 Isa Fulford 和 Josh Tobin 近期在 Training Data 播客节目中,深入探讨了公司最新的 AI Agent 产品 Deep Research。他们指出,Deep Research 代表了 AI 研究能力的一次重大突破,它采用端到端训练模型,而非传统的固定操作流程。




