好的,這就為台灣讀者準備一篇關於 Ollama Deep Researcher 的部落格文章:
Ollama Deep Researcher:讓你也能輕鬆打造個人專屬研究助理! (繁體中文)
想要快速掌握一個全新領域的知識,卻苦於資訊爆炸、不知從何下手嗎?或是研究遇到瓶頸,希望能有工具協助你挖掘更深入的資訊?今天就來介紹一個超酷的工具,讓你也能擁有自己的研究助理:Ollama Deep Researcher!
文章網址 (未來生成): `https://www.example.com/blog/ollama-deep-researcher-taiwan` (請替換成實際網址)
什麼是 Ollama Deep Researcher?
Ollama Deep Researcher 是一個完全在本機運行的網路研究助理。它基於 Ollama (一個讓你輕鬆在本機運行大型語言模型 LLM 的平台) 所提供的 LLM,並結合網路搜尋引擎,幫助你深入研究任何主題。
簡單來說,你只需要給它一個主題,它就會:
- 產生網路搜尋 запросов: 根據你的主題,產生相關的搜尋 запросов。
- 蒐集搜尋結果: 利用網路搜尋引擎 (預設為 DuckDuckGo,也支援 Tavily 和 Perplexity) 抓取搜尋結果。
- 總結搜尋結果: 使用 LLM 總結搜尋結果,萃取出重點資訊。
- 反思並找出知識缺口: LLM 會分析總結,找出目前還不清楚、需要更多資訊的地方。
- 產生新的搜尋 запросов,填補知識缺口: 針對知識缺口,產生更精確的搜尋 запросов。
- 不斷重複以上步驟: 這個過程會不斷循環,每次都根據新的資訊來改善總結。
- 產出最終報告: 最後,它會提供一份包含所有引用來源的 Markdown 格式總結報告。
想像一下,就像一個超級認真、不知疲倦的研究助理,不斷地幫你搜尋、整理、分析資料,直到你對這個主題有深入的了解為止!
影片介紹: 可以參考這個簡短的影片,更了解 Ollama Deep Researcher 的運作方式:
為什麼要用 Ollama Deep Researcher?
- 完全在本機運行: 你的資料不會被傳送到雲端,隱私更有保障。
- 省時省力: 讓 LLM 幫你完成大量的搜尋、整理工作,你可以專注在更重要的分析和思考上。
- 深入研究: 透過不斷的反思和搜尋,挖掘更深入的資訊,突破研究瓶頸。
- 開源免費: Ollama Deep Researcher 是開源的,你可以免費使用,並根據自己的需求進行修改。
- 學習 LLM 應用: 透過實際操作,更了解 LLM 的強大能力和應用場景。
如何開始使用 Ollama Deep Researcher? (初學者友善指南)
別擔心,雖然聽起來很技術,但 Ollama Deep Researcher 的安裝和使用其實沒有想像中那麼難! 以下提供簡單的步驟,讓你快速上手:
1. 安裝 Ollama:
- 首先,你需要安裝 Ollama,這是一個讓你可以在本機運行 LLM 的平台。
- 安裝完成後,打開 Ollama 應用程式,它會自動在後台運行。
2. 下載 LLM 模型:
- Ollama 需要一個 LLM 模型才能運作。你可以從 Ollama 的模型庫中選擇一個。 這裡推薦幾個:
- Llama2 3.2: Ollama 模型庫 – Llama2 3.2 – 是一個不錯的入門選擇,運算需求較低。
- DeepSeek R1 (8B): Ollama 模型庫 – DeepSeek R1 (8B) – 效果更好,但需要更高的運算資源。
- 打開你的終端機 (Terminal) 或 PowerShell,輸入以下指令來下載模型 (以 DeepSeek R1 8B 為例):
ollama pull deepseek-r1:8b
等待模型下載完成,這可能需要一些時間,取決於你的網路速度。
3. 下載 Ollama Deep Researcher:
- 打開你的終端機 (Terminal) 或 PowerShell,輸入以下指令來下載 Ollama Deep Researcher 的程式碼:
git clone https://github.com/langchain-ai/ollama-deep-researcher.git cd ollama-deep-researcher
這會將 Ollama Deep Researcher 的程式碼下載到你的電腦中。
4. 選擇網路搜尋工具:
- Ollama Deep Researcher 預設使用 DuckDuckGo 作為網路搜尋引擎,你也可以選擇 Tavily 或 Perplexity,但需要設定 API 金鑰。
- DuckDuckGo: 不需要 API 金鑰,可以直接使用。
- Tavily: 需要到 Tavily 官網 申請 API 金鑰。
- Perplexity: 需要到 Perplexity 官網 申請 API 金鑰。
- 如果你要使用 Tavily 或 Perplexity,請複製
.env.example
檔案並重新命名為.env
,然後在.env
檔案中填入你的 API 金鑰。cp .env.example .env
用文字編輯器打開
.env
檔案,修改以下內容:# 如果使用 Tavily TAVILY_API_KEY="你的 Tavily API 金鑰" # 如果使用 Perplexity PERPLEXITY_API_KEY="你的 Perplexity API 金鑰"
5. 建立虛擬環境 (建議):
- 為了避免不同專案之間的套件衝突,建議使用虛擬環境。
- Mac / Linux 使用者:
python3 -m venv .venv source .venv/bin/activate
- Windows 使用者:
python -m venv .venv .venv\Scripts\Activate.ps1
- Mac / Linux 使用者:
6. 啟動 Ollama Deep Researcher:
- 在終端機 (Terminal) 或 PowerShell 中,輸入以下指令來啟動 Ollama Deep Researcher:
# 安裝 uv 套件管理器 (如果還沒安裝) curl -LsSf https://astral.sh/uv/install.sh | sh # 使用 uv 安裝 LangGraph Server uvx --refresh --from "langgraph-cli[inmem]" --with-editable . --python 3.11 langgraph dev
這會啟動 LangGraph Server,並開啟 LangGraph Studio Web UI。
7. 使用 LangGraph Studio Web UI:
- 當你啟動 LangGraph Server 後,你會看到類似以下的輸出:
Ready! API: http://127.0.0.1:2024 Docs: http://127.0.0.1:2024/docs LangGraph Studio Web UI: https://smith.langchain.com/studio/?baseUrl=http://127.0.0.1:2024
- 複製
LangGraph Studio Web UI
後面的網址,在瀏覽器中打開。 -
在 LangGraph Studio 中,你可以在
configuration
頁籤設定以下選項:- Web Search Tool: 選擇你想要使用的網路搜尋引擎 (DuckDuckGo, Tavily, 或 Perplexity)。
- Ollama Model: 選擇你想要使用的 LLM 模型 (例如
llama3.2
或deepseek-r1:8b
)。 - Max Web Research Loops: 設定研究循環的次數 (預設為 3)。
-
設定完成後,就可以在 LangGraph Studio 中輸入你想要研究的主題,開始讓 Ollama Deep Researcher 幫你進行研究啦!
小撇步:
- 模型相容性: 並非所有 LLM 模型都相容於 Ollama Deep Researcher。 建議使用 Llama2 3.2 或 DeepSeek R1 (8B),它們在產生 JSON 格式輸出方面表現良好。
- 瀏覽器相容性: 建議使用 Firefox 瀏覽器,以獲得最佳的使用體驗。 Safari 用戶可能會遇到安全性警告。
- 遇到問題? 如果你遇到 JSON 相關的錯誤,可以嘗試切換到其他相容的模型。 如果 LangGraph Studio 無法正常顯示,可以嘗試關閉廣告阻擋擴充功能,或檢查瀏覽器主控台的錯誤訊息。
Ollama Deep Researcher 的運作原理
Ollama Deep Researcher 的靈感來自 IterDRAG 這篇研究論文。 簡單來說,它的運作原理如下:
- 分解 запросов: 將使用者提供的主題分解成更小的子 запросов。
- 檢索相關文件: 針對每個子 запросов,檢索相關的文件。
- 回答子 запросов: 使用 LLM 回答每個子 запросов。
- 整合答案並擴展知識: 將所有子 запросов 的答案整合起來,並根據新的資訊,產生新的子 запросов。
- 不斷循環: 不斷重複以上步驟,直到對主題有深入的了解。
Ollama Deep Researcher 的輸出
Ollama Deep Researcher 的輸出是一份 Markdown 格式的報告,其中包含研究總結和所有引用來源。
所有在研究過程中收集到的資料都會儲存在 graph state 中,你可以在 LangGraph Studio 中查看。
最終的總結也會儲存在 graph state 中。
其他部署選項
除了在本機運行外,你也可以將 Ollama Deep Researcher 部署到雲端,或使用 Docker 容器來運行。 更多詳細資訊可以參考 LangChain Academy 的 Module 6。
結語
Ollama Deep Researcher 是一個非常強大的工具,可以幫助你更有效率地進行研究。 雖然一開始設定可能需要一些時間,但一旦設定完成,你就可以輕鬆地使用它來探索各種主題,並獲得更深入的知識。 快來試試看,打造你自己的專屬研究助理吧!
希望這篇文章對你有幫助! 如果你有任何問題,歡迎在下方留言。
相關連結:
- Ollama 官網: https://ollama.com/
- Ollama 模型庫: https://ollama.com/search
- Ollama Deep Researcher GitHub: https://github.com/langchain-ai/ollama-deep-researcher
- Tavily 官網: https://tavily.com/
- Perplexity 官網: https://www.perplexity.ai/hub/blog/introducing-the-sonar-pro-api
額外補充 (個人實作心得):
我在測試 Ollama Deep Researcher 的時候,發現 DeepSeek R1 (8B) 模型的效果比 Llama2 3.2 好很多,但需要的運算資源也比較多。 如果你的電腦效能不夠好,可以先從 Llama2 3.2 開始。 另外,在使用 DuckDuckGo 搜尋引擎的時候,偶爾會遇到搜尋結果不夠精準的問題。 如果你需要更精準的搜尋結果,可以考慮使用 Tavily 或 Perplexity,但需要申請 API 金鑰。 總體來說,Ollama Deep Researcher 是一個非常值得嘗試的工具,它可以幫助你更有效率地進行研究,並獲得更深入的知識。
參考閱讀
https://github.com/langchain-ai/ollama-deep-researcher