理解如何針對 Specific Domain 訓練 o1 模型
深入探討 HuggingGPT 這篇論文,這是一篇關於 LLM Agent 的關鍵研究。了解 LLM 如何作為控制器,用於任務規劃並協調工具的使用,來解決多模態和複雜的 AI 挑戰
LLM Agent for Multi-Table QA Task
深入解析 RAFT 論文:如何針對特定領域 (Domain-Specific) RAG 訓練 LLM,讓語言模型結合外部文件與內部知識,大幅提升在專業領域的問答能力。
深入了解 Retrieval-Augmented Generation (RAG) 技術如何增強黑箱 LLM 的能力。本文詳解 NAACL 2024 論文 REPLUG,探索其在 Inference 和 Training 階段提升 LLM 回答品質的創新方法,有效減少幻覺現象。
深入探索 Python 的 Small Integer Cache 機制!了解 Python 如何透過預先配置 [-5, 256] 範圍內的整數物件以優化記憶體、提升執行效率。本文將搭配 id()、Reference Count 及 REPL 與檔案執行的差異進行說明
深入解析紐約大學2024年6月發表的 Cambrian-1 論文。這項開源研究以「視覺為中心」,全面探討多模態大型語言模型 (VLM) 的視覺表徵、連接器設計、訓練策略與數據集,旨在真正提升模型的視覺理解能力,並開源了 Cambrian-1 模型、CV-Bench 基準測試及 Cambrian-7M 資料集。