COT(Chain of Thought)和TOT(Tree of Thought)是两种不同的思维框架,用于理解和指导语言模型中的文本生成过程。

  1. COT(Chain of Thought)

    • COT通常指的是一条解决问题的路径,它是一种线性、从左到右的文本生成方式,其中每个后续的令牌都直接受到先前令牌的影响。这种方式对于需要清晰的、按部就班的逻辑流程的任务非常有效。COT通过提供少量示例的小样本学习可以增强,帮助理解上下文。它是一种更简单、更直观的文本生成方法,适合需要清晰逻辑顺序的任务。
  2. TOT(Tree of Thought)

    • TOT则是COT的一个拓展,它将一条reasoning路径拓展至多条reasoning paths,使模型可以综合多条reasoning path的结果得到最终的结论。TOT将任何问题定义为在树上的搜索,其中每个节点都是一个状态,表示到目前为止具有输入和thought序列的部分解决方案。TOT的一个具体实例化涉及回答四个问题:如何将中间过程分解为思维步骤;如何从每种状态中产生潜在的thought;如何启发式地评估状态;使用什么搜索算法。TOT被分为了Thought Decomposition,Thought Generator,State Evaluator,Search algorithms四部分。TOT代表一种更复杂且相互关联的文本生成方法,适合于需要深入了解多个解决方案的任务,如强化学习场景,在这些场景中,回溯和替代策略至关重要。

这两种框架作为概念算法,用于理解语言模型中文本生成的组织和进程,例如生成式预训练转换器(如GPT-3和GPT-4)。它们是提示工程的一部分,旨在通过设计输入(提示)有效地引导语言模型生成首选输出。