深度学习自然语言处理原创作者:cola用外部工具增强大型语言模型(LLM)已经成为解决复杂问题的一种方法。然而,用样例数据对LLM进行微调的传统方法,可能既昂贵又局限于一组预定义的工具。最近的上下文学习范式缓解了这一问题,但有限的上下文长度局限于少样本样例,导致不能完全挖掘工具的潜力。此外,当有许多工具可供选择时,上下文学习可能完全不起作用。因此本文提出了一种替代方法ToolkenGPT,它结合了双方的优势。论文:ToolkenGPT:AugmentingFrozenLanguageModelswithMassiveToolsviaToolEmbeddings地址:https://arxiv.