
ChatGpt
用白話文解釋 CoT(Chain of Thought)
什麼是 CoT(Chain of Thought)? 如果你在網路上看到某些 Prompt 教學,告訴你要在提示詞內加入 "think step by step",這就是 CoT 的典型用法! 如果用比較學術的解釋來說,CoT 是一種 提升大型語言模型(LLM)推理能力的技術,它讓模型在回答問題時像人類一樣逐步思考,而不是直接給出答案。 但隨著 LLM 的演進,CoT 可能變得不再必要。在較新的 Reasoning 模型(如 o1、o3-mini、DeepSeek R1)上,使用 CoT 不一定能提高答案品質,甚至可能影響推理效果。這些模型已內建強大的推理能力,不需要額外的「一步步思考」提示。 GPT 模型