深入解析 PLAN-AND-ACT 論文,了解其如何透過 Planner-Executor 框架及資料合成方法,提升大型語言模型 (LLM) 在長程任務中的規劃與執行能力,並克服相關挑戰。
本篇文章介紹了 Agent Memory 的基本概念,並透過 Email Agent 的範例,詳細說明如何使用 LangMem 實現 Semantic Memory, Episodic Memory 和 Procedural Memory,幫助 Agent 優化任務處理能力。
理解如何針對 Specific Domain 訓練 o1 模型
深入探討 HuggingGPT 這篇論文,這是一篇關於 LLM Agent 的關鍵研究。了解 LLM 如何作為控制器,用於任務規劃並協調工具的使用,來解決多模態和複雜的 AI 挑戰
LLM Agent for Multi-Table QA Task
深入解析 RAFT 論文:如何針對特定領域 (Domain-Specific) RAG 訓練 LLM,讓語言模型結合外部文件與內部知識,大幅提升在專業領域的問答能力。
深入了解 Retrieval-Augmented Generation (RAG) 技術如何增強黑箱 LLM 的能力。本文詳解 NAACL 2024 論文 REPLUG,探索其在 Inference 和 Training 階段提升 LLM 回答品質的創新方法,有效減少幻覺現象。