草庐IT

Searchformer

全部标签

补齐Transformer规划短板,田渊栋团队的Searchformer火了

最近几年,基于Transformer的架构在多种任务上都表现卓越,吸引了世界的瞩目。使用这类架构搭配大量数据,得到的大型语言模型(LLM)等模型可以很好地泛化用于真实世界用例。尽管有如此成功,但基于Transformer的架构和LLM依然难以处理规划和推理任务。之前已有研究证明LLM难以应对多步规划任务或高阶推理任务。为了提升Transformer的推理和规划性能,近些年研究社区也提出了一些方法。一种最常见且有效的方法是模拟人类的思考过程:先生成中间「思维」,然后再输出响应。比如思维链(CoT)提示法就是鼓励模型预测中间步骤,进行按步骤的「思考」。思维树(ToT)则使用了分支策略和评判方法,让