自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

擺脫云端限制!Qwen3+MCP+Ollama 本地工具調用實戰(zhàn)教程

發(fā)布于 2025-5-7 07:01
瀏覽
0收藏

通義千問3(Qwen3)是阿里巴巴通義千問團隊發(fā)布的最新開源大語言模型,它具備強大的性能、高度的模塊化特性以及出色的工具使用能力。

本文教你如何通過Ollama在本地運行通義千問3,并啟用模型上下文協(xié)議(MCP),以使用代碼解釋器、數(shù)據獲取、時間查詢等工具。

通過學習,你會構建一個完全在本地機器上運行、由通義千問3驅動的智能助手,且無需云API密鑰!開始吧!

1.為什么選擇通義千問3 + Ollama + MCP

為了實現(xiàn)這些先進功能,阿里巴巴推出了模型上下文協(xié)議(MCP)。MCP允許模型通過調度命令行服務與外部工具進行交互,這讓大語言模型能夠以結構化且安全的方式獲取時間、從網站抓取數(shù)據,或調用其他本地工具。

在通義千問智能體(Qwen-Agent)生態(tài)系統(tǒng)中,諸如??mcp-server-time???和??mcp-server-fetch??之類的MCP工具,充當著端點的角色,模型可在需要時自行觸發(fā)這些端點。這些工具通過一個字典進行配置,該字典會告知智能體每個功能應運行的命令。

  • 通義千問3:專為開源部署優(yōu)化的前沿大語言模型。
  • Ollama:通過一條命令就能簡化本地大語言模型(如通義千問3)的部署。
  • MCP:允許外部工具通過結構化消息進行通信(例如網頁瀏覽或時間查詢)。
  • 工具使用:拓展通義千問3的能力,使其超越靜態(tài)文本處理——支持執(zhí)行代碼、調用API等更多功能!

2 在本地設置Ollama和通義千問3

步驟1:安裝Ollama并運行通義千問3

在本地終端(Linux/macOS系統(tǒng))運行以下命令:

# 安裝Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 啟動Ollama服務器
ollama serve

然后拉取通義千問3模型:

ollama pull qwen3

這會獲取通義千問3的模型權重,并通過??http://localhost:11434/v1??這個Ollama API端點,為在本地使用做好準備。

步驟2:克隆并安裝通義千問智能體(Qwen-Agent)

接下來,克隆通義千問智能體的官方代碼庫,并安裝支持圖形用戶界面(GUI)、檢索增強生成(RAG)、代碼解釋以及MCP所需的額外組件。運行以下命令:

# 克隆代碼庫
git clone https://github.com/QwenLM/Qwen-Agent.git
# 安裝所有額外組件
pip install -e ./Qwen-Agent"[gui, rag, code_interpreter, mcp]"

??-e??標記確保以可編輯模式安裝該軟件包,方便在需要時深入研究其內部機制。安裝完成后,你可以編寫一個Python腳本來連接智能助手和Ollama,并啟用工具使用功能。

步驟3:編寫Python腳本

以下是通過MCP + Ollama運行一個支持工具使用的智能助手的完整代碼:

from qwen_agent.agents import Assistant

# 步驟1:配置本地通義千問3模型(由Ollama提供服務)
llm_cfg = {
   'model': 'qwen3',
   'model_server': 'http://localhost:11434/v1',  # Ollama API
    'api_key': 'EMPTY',
}

# 步驟2:定義工具(MCP + 代碼解釋器)
tools = [
    {'mcpServers': {
            'time': {
                'command': 'uvx',
                'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
            },
            'fetch': {
                'command': 'uvx',
                'args': ['mcp-server-fetch']
            }
        }
    },
    'code_interpreter',
]

# 步驟3:初始化通義千問智能體助手
bot = Assistant(llm=llm_cfg, function_list=tools)

# 步驟4:發(fā)送包含URL的用戶消息
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]

# 步驟5:運行智能助手并打印結果
for responses in bot.run(messages=messages):
    pass
print(responses)

這個腳本使用Ollama后端初始化通義千問3模型,并注冊了兩個MCP工具(??time???和??fetch???)以及內置的??code_interpreter??。在根據需求評估工具或代碼后,智能助手會處理用戶消息并返回響應。

3.總結

通義千問 3 搭配通義千問智能體(Qwen - Agent)、模型上下文協(xié)議(MCP)和 Ollama,可構建強大的本地人工智能助手,擺脫對外部云服務的依賴。該組合支持多輪對話、實時信息檢索與 Python 代碼執(zhí)行,所有操作均可在本地環(huán)境完成。

對于重視隱私、追求靈活性與擴展性,且致力于構建智能體的開發(fā)者、研究人員和產品團隊而言,這無疑是理想之選。隨著通義千問 3 持續(xù)迭代,未來它將更有力地支持復雜任務,實現(xiàn)與自定義工具的無縫融合,為本地自主人工智能智能體的發(fā)展開拓廣闊前景。

本文轉載自??AI科技論談?????,作者:AI科技論談

收藏
回復
舉報
回復
相關推薦