本篇文章介紹 Augmenting LLM Reasoning with Dynamic Notes Writing for Complex QA 論文。NotesWriting 的目標在於減少 Multi-Hop RAG 中,由於進行多次的 Retrieval,使得過多不相關資訊進入到 LLM Context 中,而使得 LLM 表現變差的問題。NotesWriting 針對每個 Retrieved Document 進行 Notes Extract,再將所有 Extract 出來的 Note 進行 Aggregation,得到最終少量且重要的資訊,來提昇 LLM Context 的品質進而提昇 LLM 的表現。
在本篇文章中,我們介紹了 AutoMind 論文,理解如何透過 Large Reasoning Model (e.g. o3-mini, deepseek-v3) 結合 (1) Expert Knowledge Base (2) Agentic Knowledgeable Tree Search 以及 (3) Self-Adpative Coding Strategy 建立一個 Agentic Framework 來處理 Data Science Task。
Agentic AI 介紹:OctoTools!理解 OctoTools 如何透過明確的且據延展性的 Tool Cards 設計,以及 Planner 與 Executor 之間的巧妙的互動,來提昇 LLM Agent 在複雜任務的表現
本篇文章介紹 Steering Large Language Models Between Code Execution and Textual Reasoning 論文,該論文由 MIT, Harvard, Microsoft, Google DeepMind 發表於 ICLR 2025。在本篇文章中,我們將會理解 LLM 在 Textual Output 以及 Code Execution 兩種 Reasoning 方式間的選擇以及表現。
本篇文章介紹 Pre-Act 論文,說明 PreAct 如何透過讓 LLM 在每一個 Reasoning Step 中產生與修改 Plan,來彌補傳統 Single Agent 方法 'ReAct' 的不足,進而提昇 LLM 在長期規劃任務上的表現。
本篇文章介紹 MemGPT 如何管理 LLM 的 Short-Term 與 Long-Term Memory。說明 MemGPT 如何基於 ReAct-Based Agent,透過連續的 Thinking 以及 Tool Calling 來操作 Core Memory, Chat History, Archival Memory 以及 Recall Memory 等多種不同 Memory 類型,達到 Persistent Conversation 的目的。
深入解析《Mem0:為 AI 代理打造可擴展的長期記憶》論文。了解 Mem0 如何解決大型語言模型 (LLM) 的長期記憶挑戰,探討其核心架構 (Mem0 與 Mem0g)、記憶管理機制及在 LOCOMO 數據集上的實驗表現。