自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

介紹一種實用的RAG技術(shù):父文檔檢索(PDR) 原創(chuàng)

發(fā)布于 2024-8-30 11:23
瀏覽
0收藏

父文檔檢索(PDR)能夠使RAG更準(zhǔn)確、細致地響應(yīng)各種復(fù)雜的查詢。本文將利用LangChain和OpenAI向你展示其分步實施步驟。

作為一種能在先進的 RAG(Retrieval-Augmented Generation,檢索增強生成)模型中實現(xiàn)的方法,父文檔檢索(Parent Document Retrieval,PDR)旨在恢復(fù)那些可以從中提取到相關(guān)子段落(或片段)的完整父文檔。此類文檔通過將豐富的上下文,傳遞給 RAG 模型,以便對復(fù)雜或細微的問題,做出更全面且內(nèi)涵豐富的回答。通常,在 RAG 模型中檢索出父文檔的主要步驟包括:

  • 數(shù)據(jù)預(yù)處理:將冗長的文檔分解為多個可管理的片段
  • 創(chuàng)建嵌入:將片段轉(zhuǎn)換為數(shù)值向量,以實現(xiàn)高效的搜索
  • 用戶查詢:讓用戶提交問題
  • 塊檢索:模型檢索出那些與查詢嵌入最為相似的部分
  • 查找父文檔:檢索原始文檔或從中獲取更大的片段
  • 父文檔檢索:檢索完整的父文檔,為響應(yīng)提供更為豐富的上下文

介紹一種實用的RAG技術(shù):父文檔檢索(PDR)-AI.x社區(qū)

循序漸進的實施

根據(jù)上圖,我們可以將實現(xiàn)父文檔檢索的步驟簡單分為如下四個不同的階段:

1. 準(zhǔn)備數(shù)據(jù)

我們首先應(yīng)為自己的 RAG 系統(tǒng)創(chuàng)建環(huán)境并預(yù)處理數(shù)據(jù),以便對后續(xù)的父文檔開展文檔檢索。

(1)導(dǎo)入必要的模塊

我們將從已安裝的庫中導(dǎo)入所需的模塊,以設(shè)置我們的 PDR 系統(tǒng):

Python

from langchain.schema import Document
from langchain.vectorstores import Chroma
from langchain.retrievers import ParentDocumentRetriever
from langchain.chains import RetrievalQA
from langchain_openai import OpenAI
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.storage import InMemoryStore
from langchain.document_loaders import TextLoader
from langchain.embeddings.openai import OpenAIEmbeddings

上述這些庫和模塊正是構(gòu)成整個過程步驟的主要部分。

(2)設(shè)置 OpenAI API 密鑰

接著,我們使用 OpenAI LLM來生成響應(yīng),為此我們需要一個 OpenAI 的API 密鑰。該密鑰可被用來設(shè)置環(huán)境變量:OPENAI_API_KEY。

Python

OPENAI_API_KEY = os.environ["OPENAI_API_KEY"] = ""  # Add your OpenAI API key
if OPENAI_API_KEY == "":
raise ValueError("Please set the OPENAI_API_KEY environment variable")

(3)定義文本嵌入函數(shù)

通過如下方式,我們利用 OpenAI 的嵌入來表示文本數(shù)據(jù):

Python

embeddings = OpenAIEmbeddings()

(4)加載文本數(shù)據(jù)

為了讀取想要檢索的文本文檔,你可以利用類TextLoader來讀取文本文件:

Python

loaders = [
    TextLoader('/path/to/your/document1.txt'),
    TextLoader('/path/to/your/document2.txt'),
]
docs = []
for l in loaders:
docs.extend(l.load())

2. 檢索完整的文檔

下面,我們將通過設(shè)置系統(tǒng),來檢索與子段落相關(guān)的完整父文檔。

(1)完整文檔的拆分

我們使用RecursiveCharacterTextSplitter將加載的文檔分割成比所需大小更小的文本塊。這些子文檔將使我們能夠有效地搜索相關(guān)段落:

Python

child_splitter = RecursiveCharacterTextSplitter(chunk_size=400)

(2)矢量存儲和存儲設(shè)置

下面,我們將使用Chroma向量存儲來嵌入各個子文檔,并利用InMemoryStore來跟蹤與子文檔關(guān)聯(lián)的完整父文檔: 

Python

vectorstore = Chroma(
    collection_name="full_documents",
    embedding_function=OpenAIEmbeddings()
)
store = InMemoryStore()

(3)父文檔檢索器

接著,讓我們從類ParentDocumentRetriever中實例化一個對象。該類主要負(fù)責(zé)完整父文檔與基于子文檔相似性檢索相關(guān)的核心邏輯。

Python

full_doc_retriever = ParentDocumentRetriever(
    vectorstore=vectorstore,
    docstore=store,
    child_splitter=child_splitter
)

(4)添加文檔

然后,這些加載的文檔將使用add_documents方法被饋入ParentDocumentRetriever中,如下代碼所示:

Python

full_doc_retriever.add_documents(docs)
print(list(store.yield_keys()))  # List document IDs in the store

(5)相似性搜索和檢索

至此,檢索器已基本實現(xiàn),你可以在給定查詢的情況下,去檢索相關(guān)的子文檔,并獲取相關(guān)的完整父文檔:

Python

sub_docs = vectorstore.similarity_search("What is LangSmith?", k=2)
print(len(sub_docs))
print(sub_docs[0].page_content)  
retrieved_docs = full_doc_retriever.invoke("What is LangSmith?")
print(len(retrieved_docs[0].page_content)) 
print(retrieved_docs[0].page_content)

3. 檢索更大的數(shù)據(jù)塊

有時,在文檔非常大的情況下,我們可能無法獲取完整的父文檔。對此,可參考如下從父文檔獲取較大片段的方法:

塊和父級文本分割:

  • 使用RecursiveCharacterTextSplitter的兩個實例,其中一個用于創(chuàng)建特定大小的較大父文檔。另一個具有較小的塊大小,可用于創(chuàng)建文本片段,即父文檔中的子文檔。

矢量存儲和存儲設(shè)置(類似完整的文檔檢索):

  • 創(chuàng)建一個向量存儲Chroma,用于索引子文檔的嵌入。
  • 使用InMemoryStore保存父文檔的塊。

(1)父文檔檢索器

該檢索器可解決 RAG 中的一個基本問題:由于被檢索的整個文檔過大,而無法包含足夠的上下文。為此,RAG需將文檔切成小塊進行檢索,進而對這些小塊進行索引。不過,在查詢之后,它不會去檢索這些文檔片段,而是檢索整個父文檔,從而為后續(xù)的生成提供更為豐富的上下文。

Python

parent_splitter = RecursiveCharacterTextSplitter(chunk_size=2000)  
child_splitter = RecursiveCharacterTextSplitter(chunk_size=400)   
vectorstore = Chroma(
    collection_name="split_parents",
    embedding_function=OpenAIEmbeddings()
)
store = InMemoryStore()
big_chunks_retriever = ParentDocumentRetriever(
    vectorstore=vectorstore,
    docstore=store,
    child_splitter=child_splitter,
    parent_splitter=parent_splitter
)
# Adding documents
big_chunks_retriever.add_documents(docs)
print(len(list(store.yield_keys())))  # List document IDs in the store

(2)相似性搜索和檢索

該過程仍然與完整的文檔檢索類似,我們需要查找相關(guān)的子文檔,然后從父文檔中獲取相應(yīng)的更大文檔塊。

Python

sub_docs = vectorstore.similarity_search("What is LangSmith?", k=2)
print(len(sub_docs))
print(sub_docs[0].page_content)  
retrieved_docs = big_chunks_retriever.invoke("What is LangSmith?")
print(len(retrieved_docs))
print(len(retrieved_docs[0].page_content)) 
print(retrieved_docs[0].page_content)

4. 與 RetrievalQA 集成

至此,我們已經(jīng)實現(xiàn)了一個父文檔檢索器,你可以將其與RetrievalQA鏈集成,以使用檢索到的父文檔進行各種問答:

Python

qa = RetrievalQA.from_chain_type(llm=OpenAI(),
                                chain_type="stuff",
                                retriever=big_chunks_retriever)
query = "What is LangSmith?"
response = qa.invoke(query)
print(response)

小結(jié)

綜上所述,PDR 大幅提高了 RAG 模型輸出響應(yīng)的準(zhǔn)確性,而且這些響應(yīng)都帶有豐富的上下文。而通過對父文檔的全文檢索,我們可以深入準(zhǔn)確地回答各種復(fù)雜問題,這也是復(fù)雜人工智能的基本要求。

譯者介紹

陳峻(Julian Chen),51CTO社區(qū)編輯,具有十多年的IT項目實施經(jīng)驗,善于對內(nèi)外部資源與風(fēng)險實施管控,專注傳播網(wǎng)絡(luò)與信息安全知識與經(jīng)驗。

原文標(biāo)題:Parent Document Retrieval (PDR): Useful Technique in RAG,作者:Intiaz Shaik

鏈接:https://dzone.com/articles/parent-document-retrieval-useful-technique-in-rag。

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
已于2024-8-30 11:24:42修改
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦