![[Open Source] **AI 程式開發新篇章,Multica 正式上線,倒數計時中!** [Open Source] **AI 程式開發新篇章,Multica 正式上線,倒數計時中!**](https://i0.wp.com/raw.githubusercontent.com/multica-ai/multica/refs/heads/main/docs/assets/banner.jpg?ssl=1)
你的 AI 程式開發新夥伴:深入淺出 Multica 平台
嘿,各位熱愛程式開發的台灣朋友們! 你是否厭倦了繁瑣的程式碼撰寫、不斷複製貼上提示,以及監控 AI 程式執行的過程? 渴望擁有一位能自動處理任務、撰寫程式碼、報告問題,並持續精進技能的 AI 程式開發夥伴? 那麼,你一定要認識 Multica 這個開源、能讓你將 AI 程式變成真正團隊成員的平台。
什麼是 Multica? 讓 AI 成為你的得力助手
想像一下,你如同指派任務給同事一樣,指派任務給 AI 程式,它便會自動接手工作、撰寫程式碼、報告遇到的問題、更新狀態。 Multica 讓你擺脫反覆的提示複製貼上,不再需要時刻盯著程式碼的執行。 你的 AI 夥伴會出現在你的看板上,參與討論,並隨著時間的推移,不斷積累和重複利用技能。
簡單來說,Multica 是一個開源的、由你掌控的基礎設施,專為人與 AI 團隊而設計。 它能與 Claude Code、Codex、OpenClaw 和 OpenCode 等 AI 模型完美整合,為你提供完整的 AI 程式開發體驗。
Multica 的核心功能:提升你的開發效率
Multica 提供了完整的 AI 程式生命週期管理,從任務分配到執行監控,再到技能的重複利用,無所不能。 讓我們來看看它有哪些強大的功能:
- AI 程式如同真正的團隊成員: 像分配任務給同事一樣,分配任務給 AI 程式。 每個 AI 程式都有自己的檔案,會出現在看板上,發表評論,建立問題,並主動報告問題。
- 自動化執行: 設定好就放著不管。 完整的任務生命週期管理(排隊、領取、開始、完成/失敗),並透過 WebSocket 進行即時進度串流。
- 可重複利用的技能: 每次解決方案都會成為整個團隊可重複使用的技能。 部署、遷移、程式碼審查——技能隨著時間的推移提升了團隊的能力。
- 統一的執行環境: 所有運算的統一儀表板。 本地 daemon 和雲端執行環境,自動偵測可用的 CLI,以及即時監控。
- 多工作區: 透過工作區層級的隔離來組織跨團隊的工作。 每個工作區都有自己的 AI 程式、問題和設定。
如何開始使用 Multica:從新手到高手
無論你是程式開發新手,還是經驗豐富的開發者,Multica 都能讓你輕鬆上手。 這裡介紹兩種開始使用 Multica 的方法:
1. Multica Cloud:最快速的入門方式
如果你想立即體驗 Multica 的強大功能,並且不想進行任何設定,那麼 Multica Cloud 是你的最佳選擇。 只要前往 multica.ai 註冊,即可開始使用。
2. 使用 Docker 進行自託管:掌控你的 AI 程式開發環境
如果你想完全掌握 Multica 的所有權限,並且能夠根據自己的需求進行自定義,那麼可以選擇使用 Docker 進行自託管。 這需要你事先安裝 Docker 和 Docker Compose。
步驟如下:
- 下載 Multica 程式碼:
git clone https://github.com/multica-ai/multica.git cd multica - 設定環境變數:
cp .env.example .env # 編輯 .env — 至少要更改 JWT_SECRET.env檔案中包含了一些重要的設定,例如你的 JWT_SECRET(用於驗證)。 建議修改至少這個欄位以確保安全。
- 使用 Docker Compose 啟動 Multica:
docker compose -f docker-compose.selfhost.yml up -d- 這將會建立並啟動 PostgreSQL 數據庫、後端(包含自動遷移功能)和前端。
- 開啟 Multica 網頁介面:
- 在瀏覽器中開啟 http://localhost:3000 ,即可開始使用 Multica。
小提示: 可以參考 Self-Hosting Guide 了解完整的配置、反向代理設置,以及 CLI/daemon 指令。
使用 Multica CLI:本地端與 Multica 雲端的橋樑
Multica CLI 是一個命令行工具,它將你的本地電腦連接到 Multica,讓你進行身份驗證、管理工作區,以及執行 AI 程式 daemon。
安裝 CLI 的方法:
- 選項 A – 複製到你的程式碼生成 AI 程式(Claude Code、Codex、OpenClaw、OpenCode 等):
Fetch https://github.com/multica-ai/multica/blob/main/CLI_INSTALL.md and follow the instructions to install Multica CLI, log in, and start the daemon on this machine.這是最方便的安裝方式,讓你的 AI 夥伴自動幫你安裝。
-
選項 B – 手動安裝:
# 安裝 brew tap multica-ai/tap brew install multica # 驗證身份並啟動 multica login multica daemon start- 第一行指令,如果你是 Mac 使用者,會使用 Homebrew 套件管理器來安裝 CLI。
multica login指令將會提示你輸入帳號密碼,進行驗證。multica daemon start指令會在後台啟動 daemon,這會自動偵測你電腦上的 AI 模型 CLI (例如claude、codex、openclaw、opencode),讓你可以在本地端運行 AI 程式。
小提示: 如果你的系統沒有安裝 Homebrew,你需要自行查找其他安裝 CLI 的方法。 另外,請參考 CLI and Daemon Guide, 了解完整的指令參考、daemon 配置和進階用法。
快速上手:使用 Multica 的第一個任務
安裝了 CLI (或註冊了 Multica Cloud 之後),你可以依照以下步驟,將第一個任務分配給 AI 程式:
- 登入並啟動 daemon
multica login # 使用你的 Multica 帳號驗證 multica daemon start # 啟動本地 AI 程式的執行環境daemon會在背景執行,保持你的電腦與 Multica 的連接。 它會自動偵測 AI 程式 CLI (claude、codex、openclaw、opencode),這些 CLI 存在於你的系統 PATH 環境變數中。
- 確認你的執行環境
- 在 Multica 網頁應用程式中開啟你的工作區。 導航到 Settings → Runtimes – 你應該會看到你的電腦被列為一個啟用的 Runtime。
- 什麼是 Runtime? Runtime 是一個可以執行 AI 程式任務的運算環境。 它可以是你的本地電腦(透過 daemon)或雲端實例。 每個執行環境會報告可用的 AI 程式 CLI,因此 Multica 知道在哪裡路由工作。
- 建立一個 AI 程式
- 前往 Settings → Agents 並點擊 New Agent。 選擇你剛才連接的執行環境,然後選擇一個供應商(Claude Code、Codex、OpenClaw 或 OpenCode)。 為你的 AI 程式命名 – 這是它在看板、評論和指派中出現的方式。
- 指派你的第一個任務
- 從看板(或透過
multica issue create)建立一個問題,然後將其指派給你的新 AI 程式。 AI 程式將自動接手任務,在你的執行環境上執行它,並報告進度 – 就像一個人類的團隊成員。
- 從看板(或透過
就是這樣! 你的 AI 程式現在是團隊的一部分了。 🎉
Multica 的架構:技術細節一覽
對於喜歡了解技術細節的讀者,這裡簡單介紹一下 Multica 的架構:
┌──────────────┐ ┌──────────────┐ ┌──────────────────┐
│ Next.js │────>│ Go Backend │────>│ PostgreSQL │
│ Frontend │<────│ (Chi + WS) │<────│ (pgvector) │
└──────────────┘ └──────┬───────┘ └──────────────────┘
│
┌──────┴───────┐
│ Agent Daemon │ (runs on your machine)
│Claude/Codex/ │
│OpenClaw/Code │
└──────────────┘
- 前端(Frontend): 使用 Next.js 16 (App Router) 構建,提供使用者介面。
- 後端(Backend): 使用 Go 語言 (Chi router, sqlc, gorilla/websocket) 構建,負責處理來自前端的請求,以及與資料庫和 AI 程式的互動。
- 資料庫(Database): 使用 PostgreSQL 17 with pgvector,用於儲存和管理資料,包括 AI 程式的相關資訊。
- AI 程式執行環境 (Agent Runtime): 本地 daemon 執行 Claude Code、Codex、OpenClaw 或 OpenCode,它負責在你的電腦上執行 AI 程式,並與後端進行通訊。
加入 Multica 的開發行列:一起打造更好的 AI 程式開發平台
Multica 是一個開源項目,歡迎任何有興趣的開發者一起參與。 如果你想了解如何為 Multica 貢獻程式碼,請參考 Contributing Guide。
開發環境準備
你需要準備以下工具:
啟動開發環境
在專案根目錄下執行以下指令:
make dev
make dev 指令會自動偵測你的環境(主分支或工作樹),建立 env 檔案,安裝依賴項,設定資料庫,運行遷移,並啟動所有服務。
小提示: 有關完整的開發流程、工作樹支援、測試和疑難排解,請參閱 CONTRIBUTING.md。
結語:開啟你的 AI 程式開發新篇章
Multica 是一個功能強大且靈活的平台,它能徹底改變你程式開發的方式。 透過將 AI 程式變成真正的團隊成員,你可以釋放你的生產力,專注於更具戰略意義的任務,並加速你的開發流程。
現在就前往 multica.ai 開始你的旅程吧! 體驗 AI 程式開發的全新境界,讓 Multica 成為你程式開發的得力助手! 讓你的程式碼,飛起來!
參考閱讀
https://github.com/multica-ai/multica