一文剖析基于 MCP 的 AI 應用技術架構全景視圖:從基礎實施層、云原生層、模型層、應用技術層、應用架構層 原創(chuàng)
1、基于 MCP 的 AI 應用技術架構全景圖
MCP 已經(jīng)成為業(yè)界的標準,基于 MCP 的 AI 應用技術已經(jīng)在具體的業(yè)務場景落地實踐,本文通過梳理基于 MCP 的 AI 應用技術架構的全景視圖,讓你全面了解 AI 應用技術的各個層次,從基礎實施層、云原生層、模型層、應用技術層、應用架構層、到應用層,如下圖所示,揭示基于 MCP 的 AI 應用技術如何在不同的層面上協(xié)同工作,推動產(chǎn)業(yè)應用的落地。
一、 基礎設施層
AI 大模型技術發(fā)展離不開堅實的基礎設施支持,涵蓋了 GPU、CPU、RAM、HDD、Network 等關鍵硬件設施。這些硬件設備為 AI 大模型的訓練與推理提供了關鍵的運算資源和存儲能力。
1.1、 GPU(圖形處理單元)的作用
GPU 針對并行計算進行了優(yōu)化,非常適合深度學習以及執(zhí)行復雜計算任務。與傳統(tǒng) CPU 相比,GPU 在處理大規(guī)模數(shù)據(jù)時具有顯著優(yōu)勢,特別是在圖像處理和神經(jīng)網(wǎng)絡訓練領域。
1.2、 CPU(中央處理單元)的重要性
CPU 作為通用處理器,承擔了大部分的計算任務。雖然在并行處理方面不及GPU,但 CPU 在執(zhí)行邏輯運算和控制任務時表現(xiàn)高效,構成了計算機系統(tǒng)的關鍵部分。
1.3、 RAM(隨機存取存儲器)的功能
RAM 提供了計算過程中快速讀寫數(shù)據(jù)的臨時存儲空間。其主要職責是存放正在運行的程序和數(shù)據(jù),使得 CPU 能夠迅速訪問這些信息,從而提升整體的計算效率。
1.4、 HDD(硬盤驅動器)的角色
HDD 承擔著存儲大量訓練數(shù)據(jù)和模型文件的任務。盡管其訪問速度不及RAM,但 HDD憑 借較大的存儲容量,成為長期保存數(shù)據(jù)的主要設備。
1.5、 Network(網(wǎng)絡)的角色
Network 為 AI 大模型的預訓練、微調、推理、應用訪問提供分布式的通信基礎設施。
二、 云原生層
2.1、 彈性伸縮層
基于 Docker 容器和 K8S 的彈性云原生架構,為 AI 大模型的預訓練、微調、推理以及 AI 應用的部署,提供了高擴展、高可用的云環(huán)境,從而根據(jù)訪問量的情況動態(tài)伸縮。
三、模型層
這一層主要由大語言模型、視覺-語言模型、小模型等構成。
3.1、 大語言模型(LLMs)
大語言模型的運用大語言模型,比如:DeepSeek R1,具備處理及生成自然語言文本的能力。這些模型通過海量訓練數(shù)據(jù)學習語言規(guī)律,能夠執(zhí)行包括文本創(chuàng)作、翻譯、摘要在內的多種自然語言處理任務。
3.2、 視覺-語言模型的融合
視覺-語言模型結合了視覺與語言信息,能夠理解和創(chuàng)造跨模態(tài)內容。這種模型不僅能夠處理文字信息,還能識別和生成圖像、視頻等視覺內容,廣泛應用于圖像標注、視頻解析等領域。
3.3、 智能文檔理解的實現(xiàn)
智能文檔理解技術通過解析文本和非結構化數(shù)據(jù),實現(xiàn)對文檔內容的深入理解。它能夠自動抓取關鍵信息,執(zhí)行文檔的分類和提煉工作,從而為文檔管理及信息檢索提供智能化支持。
3.4、 多模態(tài)檢測與分類的技術
多模態(tài)檢測與分類技術整合了多種數(shù)據(jù)類型,以實現(xiàn)更精確的分類和檢測。通過融合文本、圖像、音頻等多種模態(tài)的信息,該技術提升了模型的精確度和穩(wěn)健性,并在安全監(jiān)控、醫(yī)療診斷等多個領域得到了廣泛應用。
四、應用技術層
4.1、 MCP 技術
MCP(Model Context Protocol)是由 Anthropic 公司提出的一種協(xié)議,旨在解決不同大語言模型(LLM)與不同外部工具集成的標準化問題。通過MCP,開發(fā)者能夠以一種統(tǒng)一的方式將各種數(shù)據(jù)源和工具連接到 AI 大模型,從而提升大模型的實用性和靈活性。
目前,MCP 生態(tài)已經(jīng)得到了廣泛的支持,包括 Anthropic 的 Claude 系列、OpenAI 的 GPT 系列、Meta 的 Llama 系列、DeepSeek、阿里的通義系列以及 Anysphere 的 Cursor 等主流模型均已接入 MCP 生態(tài)。
MCP 的架構設計
MCP 采用了客戶端-服務器架構,主要包括以下幾個核心組件:
1、MCP 主機(Hosts)
角色:這是需要訪問數(shù)據(jù)的程序,例如Claude Desktop、各種IDE或AI工具。
功能:它們是MCP生態(tài)系統(tǒng)的入口點,負責向用戶提供AI功能,并作為用戶與AI模型之間的橋梁。
2、MCP 客戶端(Clients)
角色:這些是協(xié)議客戶端,負責維持與 MCP 服務器的1:1連接。
功能:它們處理通信細節(jié),確保主機和服務器之間的數(shù)據(jù)傳輸順暢,從而實現(xiàn)高效的數(shù)據(jù)交互。
3、MCP 服務器(Servers)
角色:這些是輕量級程序,每個服務器都通過標準化的 Model Context Protocol 暴露特定功能。
功能:服務器是 MCP 的核心,它們連接 AI 大模型與實際數(shù)據(jù)源,使模型能夠訪問和操作數(shù)據(jù)。
4、數(shù)據(jù)源
本地數(shù)據(jù)源:包括您計算機上的文件、數(shù)據(jù)庫和服務,MCP 服務器可以安全地訪問這些資源。
遠程服務:通過互聯(lián)網(wǎng)可用的外部系統(tǒng)(比如:通過 API),MCP 服務器可以連接這些系統(tǒng),從而擴展模型的能力。
4.2、 Agent(智能體)技術
Agent 智能體技術就是利用大模型的推理能力對任務進行規(guī)劃拆解,并使用外部的工具完成一件復雜的任務。
4.3、 RAG(檢索增強生成)技術
RAG 技術融合了檢索與生成兩種方法,旨在提升信息生成的精準度。它利用檢索到的相關信息來增強生成模型的效能,確保所生成內容的準確性與相關性。
4.4、 大模型微調(Fine-tuning)
大模型微調技術通過對模型進行細致調整,使其更好地適應特定任務需求。在特定任務的數(shù)據(jù)集上進行微調后,模型在相關任務上的性能可以得到顯著提升,實現(xiàn)更精準和高效的處理。
4.5、 提示詞工程(Prompt Engineering)
提示詞工程專注于設計高效的提示語,以優(yōu)化模型的輸出結果。通過精心設計的提示詞,可以引導模型生成更加符合預期的內容,從而提升生成文本的質量。
4.6、 思維鏈(Chain-of-Thought)技術
思維鏈技術模擬人類的思考過程,以增強模型的決策和推理能力。通過逐步推理和決策,該技術使得模型能夠更有效地處理復雜問題,并做出更加合理的判斷。
4.7、 數(shù)據(jù)工程技術
在應用技術層,還涵蓋了數(shù)據(jù)抓取、清洗、構建向量庫、實施訪問控制等數(shù)據(jù)處理的全流程,這些環(huán)節(jié)確保了數(shù)據(jù)的質量和安全。這些基礎步驟對于模型的訓練和推理至關重要,它們有助于增強模型的性能和信賴度。
五、應用架構層
5.1、 工程技術架構
通過工程技術架構的設計解決 AI 應用高可用、高性能、高可靠。
5.2、 業(yè)務架構
針對業(yè)務場景選擇合適的業(yè)務架構類型(RAG 架構、AI Agent 架構等選型)。
5.3、 云原生架構
解決 AI 應用彈性伸縮。
六、應用層
6.1、 增量應用
AI 應用的增量應用主要分為 RAG 類應用、Agent 類應用。
6.2、 存量應用
AI 應用的存量應用主要分為 OLTAP 類應用、OLAP 類應用。
本文轉載自公眾號玄姐聊AGI 作者:玄姐
