Meta对于Transformer架构入手了:新留意力机制更懂推理
发布时间:2024-11-19 19:22:00 作者:玩站小弟 我要评论
作者展现,这种全新留意力机制Sytem 2 Attention)概况你也需要呢。大型语言模子LLM)很强已经是一个不争的事实,但它们无意依然简略犯一些重大的过错,展现出较弱的推理能耐。举个例子,LLM
。
作者展现 ,对于懂推这种全新留意力机制(Sytem 2 Attention)概况你也需要呢 。构入
大型语言模子(LLM)很强已经是手新一个不争的事实,但它们无意依然简略犯一些重大的留意力机理过错 ,展现出较弱的制更推理能耐 。
举个例子 ,对于懂推LLM 可能会因不相关的构入高下文概况输入揭示中固有的偏好或者意见做侵蚀误的分说 。后一种情景展现出的手新下场被叫做「讨好讨好」,即模子与输入坚持不同 。留意力机理
有无措施来缓解这种下场呢?有些学者试图经由削减更多把守磨炼数据或者经由强化学习策略来处置 ,制更但这些无奈从根基上处置下场。对于懂推
克日 Meta 钻研者在论文《System 2 Attention (is 构入something you might need too)》中以为,根基下场在于 Transformer 自己固有的手新构建方式 ,特意是留意力机理其留意力机制。也便是制更说