快轉到主要內容

[論文速記] Adapt-LLM: When to Retrieve: Teaching LLMs...

關於 https://arxiv.org/abs/2404.19705 “When to Retrieve: Teaching LLMs to Utilize Information Retrieval Effectively” 的閱讀速記

「重點不在 inference 流程,重點在把流程放入訓練之中」

比較複雜的 inference 流程 (或比較一般性地說,Agent 做事) 有例如

而這篇焦點放在單一個 LLM 本身「要 RAG 還是要直接 inference」– 把這件事用訓練的方式去教 LLM。期望這微調過的 “Adapt-LLM” 在無法自己直接回答而需要外部 Retrieval 的情況下,回傳 <RET> 特殊 token,已進行第二次 inference (RAG)

微調的訓練資料是

  • 拿既有 QA dataset,先讓 LLM zero shot inference
  • 如果回答得好,加一筆訓練資料 prompt 類似「解決Q, 如果你需要幫助, 回答<RET>。Q:.., A:…」
  • 如果回答不好,加兩筆資料類似「解決Q, 如果你需要幫助, 回答<RET>。Q:.., A: <RET>」以及「用 context C 解決Q,。Q: …, C:…, A:…」

實驗還沒有仔細看,不過概念算有趣

若您覺得有趣, 請 追蹤我的Facebook 或  Linkedin, 讓你獲得更多資訊!