用 Ollama 和 LMStudio 打造你的本地深度研究助理:Local Deep Researcher 初學者指南
你是否曾經為了寫報告、做研究,在網路上搜尋了大量的資料,卻還是覺得資訊不夠完整,或是難以整理歸納?現在,有了 Local Deep Researcher,你可以打造一個完全屬於你自己的、本地端運行的研究助理,它能幫你自動搜尋、整理、分析網路資料,並產出完整的 markdown 格式研究報告!
這篇文章將帶領台灣讀者,尤其是對 AI 研究助理有興趣的初學者,一步步了解 Local Deep Researcher 的核心概念、如何安裝設定,以及實際操作的過程。讓我們一起告別資訊焦慮,輕鬆駕馭網路上的知識寶藏吧!
什麼是 Local Deep Researcher?
Local Deep Researcher 是一個基於大型語言模型 (LLM) 的網路研究助理,它最大的特色就是 完全本地運行。這代表你的研究過程不會經過雲端伺服器,所有資料都保存在你的電腦裡,安全性更有保障。
它主要基於 Ollama 或 LMStudio 託管的 LLM 模型,也就是說,你可以在自己的電腦上運行像是 Llama、DeepSeek 等等強大的 AI 模型,讓它們協助你進行研究。
簡單來說,Local Deep Researcher 就像一個聰明的研究夥伴,它可以:
- 自動產生搜尋查詢: 根據你提供的主題,自動生成相關的網路搜尋關鍵字。
- 蒐集網路搜尋結果: 使用搜尋引擎(預設為 DuckDuckGo)蒐集大量的網路資料。
- 總結搜尋結果: 利用 LLM 模型分析、總結搜尋到的資料,萃取出重要的資訊。
- 找出知識缺口: 透過 LLM 模型反思目前的總結,找出還需要補充的知識點。
- 重複迭代搜尋: 針對知識缺口,產生新的搜尋查詢,並重複以上步驟,不斷精進研究內容。
- 產出 Markdown 報告: 最後,Local Deep Researcher 會將所有研究成果整理成一份包含引用來源的 Markdown 格式報告。
為什麼要使用 Local Deep Researcher?
相較於其他線上 AI 研究工具,Local Deep Researcher 擁有以下優勢:
- 隱私安全: 所有資料都在本地端處理,不用擔心資料外洩的問題。
- 客製化: 你可以自由選擇要使用的 LLM 模型和搜尋引擎,打造最符合你需求的個人化研究助理。
- 離線可用: 只要你的 LLM 模型已經下載到本地,即使沒有網路連線,仍然可以使用 Local Deep Researcher 進行研究。
- 免費開源: Local Deep Researcher 是一個開源專案,你可以免費使用,並根據自己的需求進行修改。
初學者如何開始使用 Local Deep Researcher?
不用擔心,即使你沒有程式基礎,也可以輕鬆上手 Local Deep Researcher!以下是詳細的安裝設定步驟:
1. 安裝必要的軟體
- Python 3.11+: 確保你的電腦上已經安裝 Python 3.11 或以上的版本。如果沒有,請到 Python 官網 下載並安裝。
-
Ollama 或 LMStudio: 選擇你要使用的 LLM 模型平台。
- Ollama: 如果你想要快速上手,Ollama 是個不錯的選擇。它提供簡單易用的介面,可以輕鬆下載和管理 LLM 模型。請到 Ollama 官網 下載並安裝。
- LMStudio: LMStudio 提供了更豐富的功能,例如模型管理、伺服器設定等等。如果你對 LLM 模型有更深入的需求,可以考慮使用 LMStudio。請到 LMStudio 官網 下載並安裝。
2. 下載 Local Deep Researcher 程式碼
在你的電腦上開啟終端機 (Terminal) 或命令提示字元 (Command Prompt),輸入以下指令:
git clone https://github.com/langchain-ai/local-deep-researcher.git
cd local-deep-researcher
這個指令會將 Local Deep Researcher 的程式碼下載到你的電腦,並進入程式碼所在的資料夾。
3. 設定環境變數
在 Local Deep Researcher 資料夾中,你會看到一個名為 .env.example
的檔案。複製一份並將其重新命名為 .env
。這個檔案用來設定 Local Deep Researcher 的環境變數,例如 LLM 模型、搜尋引擎等等。
使用文字編輯器開啟 .env
檔案,根據你的需求修改以下變數:
- OLLAMA_BASE_URL (Ollama): Ollama 服務的網址,預設為 `http://localhost:11434`。如果你修改了 Ollama 的設定,請在這裡更新網址。
- OLLAMA_MODEL (Ollama): 你要使用的 LLM 模型名稱,例如
llama3.2
。你可以到 Ollama 模型庫 尋找你喜歡的模型,並使用ollama pull <model_name>
指令下載到本地。 - LLM_PROVIDER (LMStudio): 如果你使用 LMStudio,請設定為
lmstudio
。 - LOCAL_LLM (LMStudio): 你在 LMStudio 中使用的 LLM 模型名稱,請務必與 LMStudio 中顯示的模型名稱完全一致。
- LMSTUDIO_BASE_URL (LMStudio): LMStudio 伺服器的網址,預設為 `http://localhost:1234/v1`。
- SEARCH_API: 你要使用的搜尋引擎,預設為
duckduckgo
。你也可以選擇searxng
、tavily
或perplexity
。 - TAVILY_API_KEY (Tavily): 如果你使用 Tavily 搜尋引擎,請在這裡填入你的 API 金鑰。你可以在 Tavily 官網 申請 API 金鑰。
- PERPLEXITY_API_KEY (Perplexity): 如果你使用 Perplexity 搜尋引擎,請在這裡填入你的 API 金鑰。你可以在 Perplexity 官網 申請 API 金鑰。
- MAX_WEB_RESEARCH_LOOPS: 研究迴圈的最大次數,預設為
3
。你可以根據你的研究需求調整這個數值。 - FETCH_FULL_PAGE: 是否要抓取完整網頁內容,預設為
false
。
例如,如果你想要使用 Ollama 運行 Llama3 模型,並使用 DuckDuckGo 搜尋引擎,你的 .env
檔案可能會像這樣:
OLLAMA_BASE_URL="http://localhost:11434"
OLLAMA_MODEL="llama3.2"
SEARCH_API="duckduckgo"
MAX_WEB_RESEARCH_LOOPS="3"
FETCH_FULL_PAGE="false"
4. 安裝 Python 依賴套件
在終端機或命令提示字元中,輸入以下指令:
pip install -e .
pip install -U "langgraph-cli[inmem]"
這個指令會安裝 Local Deep Researcher 運作所需的 Python 套件。
5. 啟動 LangGraph 伺服器
在終端機或命令提示字元中,輸入以下指令:
langgraph dev
這個指令會啟動 LangGraph 伺服器,並在你的瀏覽器中開啟 LangGraph Studio UI。
如果你的瀏覽器沒有自動開啟,請複製終端機中顯示的 LangGraph Studio Web UI 網址,並手動貼到瀏覽器中。
6. 開始你的研究!
在 LangGraph Studio UI 中,你會看到一個配置 (configuration) 頁面,你可以在這裡直接設定各種研究助理的參數。請記住,環境變數 (.env
檔案) 的優先級最高,其次是 LangGraph UI 配置,最後是程式碼中的預設值。
在配置頁面中,輸入你想要研究的主題,然後按下 “Run” 按鈕。Local Deep Researcher 就會開始自動搜尋、整理、分析資料,並產出 Markdown 格式的報告。
你可以在 LangGraph Studio UI 中監看研究的進度,並在研究完成後下載最終的 Markdown 報告。
個人實作心得與錯誤排除指南
- 模型選擇: 不同的 LLM 模型在處理 JSON 輸出方面可能會有不同的表現。如果你的模型無法產生有效的 JSON 輸出,Local Deep Researcher 會自動使用備用機制處理。建議選擇經過驗證、能夠穩定產生 JSON 輸出的模型,例如 Llama3。
-
搜尋引擎選擇: DuckDuckGo 是個不錯的入門選擇,但如果你需要更精確的搜尋結果,可以考慮使用 Tavily 或 Perplexity。請務必申請 API 金鑰,並填入
.env
檔案中。 -
網路問題: 如果你遇到網路連線問題,請檢查你的網路設定,並確保你的防火牆沒有阻擋 Local Deep Researcher 的連線。
-
記憶體不足: 執行大型研究可能會消耗大量的記憶體。如果你的電腦記憶體不足,可以嘗試減少研究迴圈的最大次數 (MAX_WEB_RESEARCH_LOOPS),或選擇更輕量級的 LLM 模型。
-
瀏覽器相容性: 建議使用 Firefox 瀏覽器以獲得最佳體驗。Safari 用戶可能會遇到安全性警告,請嘗試禁用廣告阻擋擴充功能或檢查瀏覽器控制台中的錯誤訊息。
結論
Local Deep Researcher 是一個功能強大、易於使用的本地深度研究助理。透過簡單的設定,你就可以打造一個完全屬於你自己的研究夥伴,讓它幫你自動搜尋、整理、分析網路資料,並產出完整的 Markdown 格式報告。無論你是學生、研究人員,還是對 AI 研究助理有興趣的初學者,都可以嘗試使用 Local Deep Researcher,體驗更有效率、更安全的網路研究方式!
希望這篇文章能幫助你成功入門 Local Deep Researcher。如果你在安裝設定或使用過程中遇到任何問題,歡迎在下方留言,一起交流學習!
參考閱讀
https://github.com/langchain-ai/local-deep-researcher