忘掉 Manus 模型上下文協(xié)議MCP 正在重新定義智能體的未來 原創(chuàng)
大多數(shù)普通人眼里 AI 的模樣是什么?看著網(wǎng)站草圖,AI就自動做了一個原形網(wǎng)站。只需要告訴 AI 指令,它就幫你完成了一系列的機票訂票流程。許多人更是憧憬過 All in One App —— 我只要動嘴,一切活有AI搞定??梢哉f,現(xiàn)階段的 AI 使用形態(tài),充其量就是個氛圍組。我只能獲取必要的資料指引,具體的活還得我自己來干。
而過去兩年的發(fā)展,AI Agent 不過是雷聲大,雨點小的玩意了。做的人很多,但是能夠在路人之間火出圈的產(chǎn)品,大抵也只有 Manus,它的火爆宣告著 —— AI Agent,就是眾人的希望。沒辦法,誰讓人類就是這么懶呢?要是一個技術(shù)能讓我偷懶摸魚,那最好趕緊的。接觸 MCP 之后,全知全能 AI Agent可能真的近在咫尺了,比如下面這些場景。
1. 基于內(nèi)部文檔的智能客服
把幫助文檔做成 MCP 服務(wù),直接變身智能客服,不需要做 RAG 知識庫,也能夠精準解答客戶基礎(chǔ)問題。
2. 自動網(wǎng)頁爬蟲工具
讓 AI 自動爬取澳洲各高校錄取要求,自動生成匯總生成招生簡章,并附上所有引用信源。
你可以直接點擊此處看看它寫的咋樣。??http://au.pflm.net/news/??
3. 瀏覽器操作助手
讓 AI 操作瀏覽器,登錄 WP 網(wǎng)站后臺,按照你的需求進行點點的操作。我更喜歡這個案例,因為它真的可以看懂你的網(wǎng)頁內(nèi)容,按照你的指令干活。而實現(xiàn)這一切的背后技術(shù),全然離不開 Anthropic 在 24 年 12 月悄的 MCP(模型上下文協(xié)議)標準。
接下來,將深入解析 MCP 的概念、技術(shù)原理以及多種應(yīng)用場景,幫助你快速理解并上手 MCP。
什么是 MCP?
MCP(模型上下文協(xié)議)是一個標準化工具箱,使 AI 大模型能夠與外部工具交互,獲取信息并完成具體任務(wù)。在傳統(tǒng)方法中,用戶需要手動復(fù)制文本、截圖,然后粘貼到 AI 窗口進行交互。而 MCP 通過標準化協(xié)議自動化了這一過程,作為 AI 與外部工具的中間層,替代人工操作,相當于一個能夠讓所有 LLM 順暢自動使用互聯(lián)網(wǎng)上的一系列軟件工具,只要支持了 MCP,那么不用你教,LLM 自己就會用了。
智能體普及緩慢最重要的一個原因在于大模型與現(xiàn)有應(yīng)用和數(shù)據(jù)的集成度比較低,無法獲取多種數(shù)據(jù),形成數(shù)據(jù)孤島。真是應(yīng)了那句 “巧婦難為無米之炊”。即使你大模型在強大,沒有數(shù)據(jù)集成、工具的調(diào)用,大模型的能力無用武之地。在 Anthropic 發(fā)布 MCP 之后將會將 AI 應(yīng)用開發(fā)推向一個高度。許多大模型開發(fā)框架 Spring AI、 LangChain4j 都已經(jīng)集成,包括 OpenAI 也宣布支持 MCP。
MCP 的工作原理
MCP 由多個 MCP 服務(wù)器(MCP Server)組成,每個 Server 負責特定任務(wù),例如:
- 瀏覽器操作(如讀取網(wǎng)頁內(nèi)容)
- 文檔處理(如編輯和解析本地文檔)
- 代碼管理(如操作 Git 倉庫)
架構(gòu)組件 | 描述 |
MCP Host | 通過 MCP 訪問數(shù)據(jù)的 Claude Desktop、IDE 、 AI 工具或自己開發(fā)應(yīng)用等程序 |
MCP Clients | 與服務(wù)器保持 1:1 連接的協(xié)議客戶端 |
MCP Servers | 輕量級程序,每個程序都通過標準化的 Model Context Protocol 公開特定功能 |
Local Data Sources | MCP 服務(wù)器可以安全訪問的計算機文件、數(shù)據(jù)庫和服務(wù) |
Remote Services | MCP 服務(wù)器可以連接到的 Internet 上可用的外部系統(tǒng)(例如,通過 API) |
架構(gòu)上也是非常簡單,核心內(nèi)容還是在于三部分內(nèi)容:MCP Client、MCP Server 以及 Client 與 Server之間的交互協(xié)議 Transport。
工作原理
MCP的工作原理可以概括為三個關(guān)鍵步驟,這三個步驟環(huán)環(huán)相扣,如同精密的齒輪,推動著 AI 與數(shù)據(jù)之間的交互 。
1. 調(diào)用聊天完成 API 傳遞函數(shù)和用戶輸入
當我們在 MCP 主機(如 Claude Desktop)上向 AI 助手提出一個問題時,MCP 客戶端會將這個問題以及相關(guān)的函數(shù)調(diào)用信息,通過聊天完成 API 傳遞給 MCP 服務(wù)器 。例如,我們詢問 “我昨天在 GitHub 上提交的代碼有哪些問題?”,MCP 客戶端就會把這個問題和與 GitHub 相關(guān)的函數(shù)調(diào)用信息發(fā)送給 MCP 服務(wù)器。
2. 用模型響應(yīng)調(diào)用 API 或函數(shù)
MCP服務(wù)器接收到請求后,會將其傳遞給AI模型。AI模型根據(jù)接收到的信息進行分析和處理,然后生成一個響應(yīng)。這個響應(yīng)可能包含對API或函數(shù)的調(diào)用指令。比如,AI模型判斷需要獲取GitHub上的代碼信息,就會生成調(diào)用GitHub API的指令,MCP服務(wù)器會根據(jù)這些指令去調(diào)用相應(yīng)的API或函數(shù),獲取所需的數(shù)據(jù)。
3. 再次調(diào)用 API 得到最終響應(yīng)
MCP服務(wù)器獲取到API或函數(shù)的執(zhí)行結(jié)果后,會將這個結(jié)果再次與用戶的原始輸入一起,通過聊天完成API發(fā)送給AI模型。AI模型根據(jù)這些信息生成最終的響應(yīng),并通過 MCP客戶端返回給用戶。在上述例子中,MCP服務(wù)器將從GitHub獲取到的代碼信息發(fā)送給AI模型,AI模型分析后給出關(guān)于代碼問題的回答,然后通過MCP客戶端展示給用戶。
MCP為大模型帶來的變革
MCP 賦予了 AI 自助提問,自主尋找答案和結(jié)果的權(quán)力, 為 AI 大模型帶來了變革。
(一)打破數(shù)據(jù)孤島
在傳統(tǒng)的數(shù)據(jù)集成方式中,每個數(shù)據(jù)源都像是一座孤立的島嶼,與其他數(shù)據(jù)源之間缺乏有效的連接。不同的數(shù)據(jù)庫、文件系統(tǒng)、服務(wù)等,由于各自的接口、協(xié)議、數(shù)據(jù)格式等不同,很難實現(xiàn)數(shù)據(jù)的自由流動和共享。這就導致AI大模型在獲取數(shù)據(jù)時面臨重重困難,無法充分利用各種數(shù)據(jù)資源來提升自身的能力。
而 MCP 的出現(xiàn),就像是一場 “數(shù)據(jù)解放運動”,打破了這些數(shù)據(jù)孤島之間的壁壘 。它提供了一個標準化的協(xié)議,讓AI大模型能夠以統(tǒng)一的方式訪問各種數(shù)據(jù)源,無論是本地的文件、數(shù)據(jù)庫,還是遠程的 API服務(wù)。通過 MCP,不同的數(shù)據(jù)源可以輕松地連接到AI模型,就像無數(shù)條小溪匯聚成一條大河,讓數(shù)據(jù)能夠自由地流動起來 。
以一個企業(yè)為例,它可能擁有客戶關(guān)系管理系統(tǒng)(CRM)、企業(yè)資源規(guī)劃系統(tǒng)(ERP)、數(shù)據(jù)分析平臺等多個不同的系統(tǒng),每個系統(tǒng)都存儲著重要的數(shù)據(jù) 。在過去,這些系統(tǒng)之間的數(shù)據(jù)很難共享,AI大模型想要獲取這些數(shù)據(jù),需要分別與每個系統(tǒng)進行復(fù)雜的集成 。但有了MCP之后,企業(yè)可以通過MCP服務(wù)器將這些系統(tǒng)的數(shù)據(jù)暴露出來,AI大模型只需要通過MCP客戶端,就能夠輕松地訪問這些數(shù)據(jù),實現(xiàn)數(shù)據(jù)的整合和利用,為企業(yè)的決策提供更全面、準確的支持 。
(二)簡化開發(fā)流程
在 MCP 出現(xiàn)之前,開發(fā)者要讓 AI 大模型與不同的數(shù)據(jù)源進行交互,需要為每個數(shù)據(jù)源編寫單獨的連接器。這就好比你要連接不同的電器設(shè)備,卻需要為每個設(shè)備都準備一種獨特的插頭,不僅繁瑣,而且容易出錯。每一個新的數(shù)據(jù)源,都意味著開發(fā)者要花費大量的時間和精力去了解其接口規(guī)范、數(shù)據(jù)格式,編寫相應(yīng)的代碼來實現(xiàn)數(shù)據(jù)的讀取、寫入和處理。而且,當數(shù)據(jù)源發(fā)生變化或者需要更新時,開發(fā)者還需要對連接器進行維護和修改,這無疑增加了開發(fā)的成本和復(fù)雜性 。
MCP的出現(xiàn),就像是為所有的電器設(shè)備提供了一個通用的插頭,讓開發(fā)者無需再為每個數(shù)據(jù)源編寫單獨的連接器。它提供了一個標準化的接口,開發(fā)者只需要遵循這個接口規(guī)范,就能夠輕松地將不同的數(shù)據(jù)源連接到 AI 大模型 。無論是連接數(shù)據(jù)庫、文件系統(tǒng),還是調(diào)用 API 服務(wù),都變得簡單而高效 。
例如,一個開發(fā)者想要讓 AI 大模型能夠訪問 GitHub 上的代碼倉庫和 Slack 上的團隊聊天記錄 。在沒有 MCP 的情況下,他需要分別為 GitHub 和 Slack 編寫不同的連接器,處理不同的認證方式、數(shù)據(jù)格式等問題。而有了MCP之后,他只需要使用 MCP 提供的客戶端和服務(wù)器 SDK,按照MCP的規(guī)范進行配置,就能夠快速地實現(xiàn) AI 大模型與 GitHub 和 Slack 的連接,大大簡化了開發(fā)流程,提高了開發(fā)效率 。
(三)增強模型能力
數(shù)據(jù)是AI大模型的 “燃料”,更多、更豐富的數(shù)據(jù)能夠讓模型學習到更多的知識和模式,從而提升其性能和表現(xiàn)。MCP通過為AI大模型提供無縫的數(shù)據(jù)訪問,讓模型能夠獲取到更廣泛、更實時的數(shù)據(jù),從而生成更精準、相關(guān)的響應(yīng) 。
當AI大模型能夠訪問實時的新聞數(shù)據(jù)時,它在回答關(guān)于時事熱點的問題時,就能夠給出更及時、準確的答案。當模型能夠連接到專業(yè)的學術(shù)數(shù)據(jù)庫時,它在處理學術(shù)問題時,就能夠提供更深入、專業(yè)的見解。MCP還能夠讓模型在不同的數(shù)據(jù)源之間進行上下文切換,更好地理解用戶的問題和需求 。
比如,在一個智能客服場景中,客服人員向AI大模型詢問某個客戶的訂單信息以及該客戶的歷史咨詢記錄。通過MCP,AI大模型可以同時訪問訂單管理系統(tǒng)和客戶服務(wù)系統(tǒng)的數(shù)據(jù),快速準確地獲取到相關(guān)信息,并根據(jù)這些信息為客服人員提供全面的解答,提高客戶服務(wù)的質(zhì)量和效率。MCP就像是為AI大模型打開了一扇通往知識寶庫的大門,讓模型能夠不斷地汲取新的知識和信息,變得更加智能和強大 。
快速上手:安裝 MCP
就像大部分軟件使用一樣,想要讓 AI 使用上 MCP,那么你得安裝一個客戶端軟件。這個軟件不僅要能調(diào) AI,還需要連接 MCP 服務(wù)器。
1、安裝支持 MCP 的客戶端
目前支持 MCP 的客戶端較少,基本只有以下工具:
- Cursor(AI 編程工具,開通 MCP 需支付 20 美元/月)
- Claude 官方客戶端 (美國信用卡 20 美元 / 月)
- Client(開源免費,本文以此為例)
我知道你們在想啥,不就是錢的事(你還得搞定美國信用卡),所以下文將會用免費的 VS Code + Cline 插件來帶你一步步安裝 → 感受你的 AI Agent 時刻。
1.1 安裝 Cline 并配置 AI 模型
- 下載并安裝 VS Code。??https://code.visualstudio.com/??
- 在 VS Code 的 Extensions(插件)市場搜索并安裝 Client。
3.配置 AI 模型:
- 選擇 DeepSeek 作為模型提供商。
- 去 DeepSeek API 平臺 () 申請一個 API Key?,F(xiàn)在官方的服務(wù)器已經(jīng)可以穩(wěn)定使用了。
- 選擇 ?
?deepseek-chat?
?。你也可以使用 ??deepseek-r1?
?,我只是嫌它每次使用工具還要思考一遍,太內(nèi)耗太慢了。
這安裝頁面這么程序員,有沒有一個更小清新的使用入口?沒錯希望我朋友圈的大廠里的高人快速整一個,AI 大舞臺,有夢你就來。MCP 時代,客戶端軟件是妥妥的流量入口。
2、安裝 Node.js 運行環(huán)境
MCP Server 運行在本地的 Node.js 進程上,因此需要安裝 Node.js。
- 訪問 Node.js 官網(wǎng) 下載并安裝。??https://nodejs.org/??
- 驗證安裝:
打開你的終端,運行以下命令:
node -v
npx -v
好了確保成功輸出版本號。
3、安裝 MCP Server
1. 在 Cline 內(nèi)點擊 MCP Server 按鈕,打開 MCP Server 應(yīng)用市場。
2. 選擇所需的 MCP Server(例如 Playwright 會使用瀏覽器的工具),點擊安裝。
4、 測試 MCP Server
- 在 Cline 中輸入命令:使用 Playwright 打開網(wǎng)站: au.pflm.net
- AI 自動調(diào)用 MCP 工具,此時你需要點擊同意。
3.然后你就可以讓 AI 去幫你干活了,比如說扒拉網(wǎng)頁中的內(nèi)容,變成自己的文檔。
4.其它 MCP 工具同理。
更多 MCP 工具推薦
- browser2:AI 讀取瀏覽器內(nèi)容,需安裝 Chrome 插件。
- Squint Shell Thinking:將普通大模型轉(zhuǎn)換為推理模型。
- Filesystem:允許 AI 訪問本地文件系統(tǒng)。
你也可以訪問訪問 Smithery AI https://smithery.ai/ 發(fā)現(xiàn)更多 MCP Server。
MCP 作為 AI 與外部工具交互的標準協(xié)議,極大提升了自動化能力。掌握 MCP 的基本原理和配置方法,可以幫助你高效利用 AI 進行開發(fā)和數(shù)據(jù)處理。
總結(jié)
自 Anthropic 公司開源 MCP 以來,它便在AI 領(lǐng)域引起了廣泛關(guān)注,猶如一顆投入平靜湖面的石子,激起層層漣漪。許多知名企業(yè)和平臺已經(jīng)敏銳地察覺到MCP的潛力,并紛紛接入。美國金融服務(wù)公司 Block Inc. 已經(jīng)把MCP整合進了他們的系統(tǒng),借助MCP,能夠更高效地處理金融數(shù)據(jù),為客戶提供更精準的金融服務(wù)。
在開源方面,Anthropic 為開發(fā)者提供了豐富的資源,包括模型上下文協(xié)議規(guī)范、軟件開發(fā)工具包(SDK),以及 Claude 桌面應(yīng)用程序中的本地 MCP 服務(wù)器支持。還提供了一個 MCP 服務(wù)器的開源存儲庫,開發(fā)者可以根據(jù)自己的需求,在這個基礎(chǔ)上進行二次開發(fā),構(gòu)建出符合自己業(yè)務(wù)需求的 MCP 應(yīng)用 。
展望未來,MCP將進一步推動AI生態(tài)系統(tǒng)的發(fā)展,促進不同AI模型、數(shù)據(jù)源和工具之間的互聯(lián)互通。它將成為AI世界的 “通用語言”,讓各種AI組件能夠更加順暢地協(xié)作,形成一個更加龐大、高效的AI生態(tài)網(wǎng)絡(luò)。在這個生態(tài)網(wǎng)絡(luò)中,開發(fā)者可以更輕松地構(gòu)建出復(fù)雜的AI應(yīng)用,實現(xiàn)更多創(chuàng)新的想法 。
MCP的發(fā)展也面臨著一些挑戰(zhàn)。數(shù)據(jù)安全和隱私保護始終是重中之重,隨著MCP連接的數(shù)據(jù)源越來越多,如何確保數(shù)據(jù)在傳輸和使用過程中的安全性和隱私性,是需要持續(xù)關(guān)注和解決的問題。不同數(shù)據(jù)源和系統(tǒng)之間的兼容性問題也不容忽視,MCP需要不斷優(yōu)化,以適應(yīng)各種復(fù)雜的環(huán)境。隨著MCP的應(yīng)用場景不斷拓展,對其性能和可擴展性也提出了更高的要求,需要不斷進行技術(shù)創(chuàng)新和改進 。
本文轉(zhuǎn)載自公眾號數(shù)字化助推器 作者:天涯咫尺TGH
原文鏈接:??https://mp.weixin.qq.com/s/30MDvDNE3zF4f2kGHWazbQ??
