现在网站要怎么做才有人,手机端网站开发视频教程,摄影网站投稿,如何查询域名注册人信息目录 RAG的工作流程
python实现RAG
1.引入相关库及相关准备工作
函数
1. 加载并读取文档
2. 文档分割
3. embedding
4. 向集合中添加文档
5. 用户输入内容
6. 查询集合中的文档
7. 构建Prompt并生成答案
主流程
附录
函数解释
1. open() 函数语法
2.client.embe…目录 RAG的工作流程
python实现RAG
1.引入相关库及相关准备工作
函数
1. 加载并读取文档
2. 文档分割
3. embedding
4. 向集合中添加文档
5. 用户输入内容
6. 查询集合中的文档
7. 构建Prompt并生成答案
主流程
附录
函数解释
1. open() 函数语法
2.client.embeddings.create()
3.collection.query()
完整代码 RAG的工作流程 流程描述 加载读取文档 文档分割 文档向量化 用户输入内容 内容向量化 文本向量中匹配出与问句向量相似的 top_k 个 匹配出的文本作为上下文和问题一起添加到 prompt 中 提交给 LLM 生成答案
Indexing过程 Retrieval过程 python实现RAG
1.引入相关库及相关准备工作
import chromadb # 导入 chromadb 库
from openai import OpenAI # 导入 OpenAI 库client OpenAI() # 创建一个 OpenAI 客户端实例file_path ./巴黎奥运会金牌信息.txt# 创建一个 chroma 客户端实例
chroma_client chromadb.Client()# 创建一个名为 my_collection 的集合
collection chroma_client.create_collection(namemy_collection)
函数
1. 加载并读取文档
# 1. 加载并读取文档
def load_document(filepath):with open(filepath, r, encodingutf-8) as file:document file.read()return document
def load_document(filepath):定义一个名为 load_document 的函数并接收一个参数 filepath表示要读取的文件路径。 with open(filepath, r, encodingutf-8) as file:使用 open() 函数打开 filepath 指定的文件。
r 表示以只读模式打开文件。
encodingutf-8 指定UTF-8 编码以确保能够正确处理包含中文或其他特殊字符的文件。
with 语句用于上下文管理可以在读取文件后自动关闭文件防止资源泄露。 document file.read()2. 文档分割
# 2. 文档分割
def split_document(document):# 使用两个换行符来分割段落chunks document.strip().split(\n\n)return chunks # 返回包含所有文本块的列表
1. def split_document(document):
这是一个函数定义document 是输入的文本字符串类型。该函数的作用是按照段落分割文本。
2. document.strip()
strip() 方法用于去掉字符串开头和结尾的空白字符包括空格、换行符 \n、制表符 \t 等。这样可以避免因为文本头尾的换行符导致分割时出现空字符串。
3. .split(\n\n)
split(\n\n) 按照两个连续的换行符分割文本。\n 代表换行而 \n\n 代表两个换行符通常用于分隔不同的段落。这个方法会返回一个列表其中每个元素是一个段落。
4. return chunks
chunks 是分割后的文本块列表返回它供后续使用。
3. embedding
# 3. embedding
def get_embedding(texts, modeltext-embedding-3-large):result client.embeddings.create(inputtexts,modelmodel)return [x.embedding for x in result.data]
封装embedding模型。
4. 向集合中添加文档
# 4. 向集合中添加文档
def add_documents_to_collection(chunks):embeddings get_embedding(chunks) # 获取文档块的嵌入collection.add(documentschunks, # 文档内容embeddingsembeddings, # 文档对应的嵌入向量ids[fid{i1} for i in range(len(chunks))] # 生成文档 ID)
这段代码定义了 add_documents_to_collection 函数用于将文档chunks添加到一个集合collection中并为每个文档计算嵌入embedding。这个过程通常用于向量数据库如 FAISS、ChromaDB 或 Pinecone以支持向量搜索、相似性检索和信息检索。 embeddings get_embedding(chunks) # 获取文档块的嵌入调用 get_embedding(chunks)为 chunks 中的每个文本计算嵌入embedding。embeddings 是一个嵌入向量列表每个向量对应 chunks 里的一个文本片段。 collection.add(collection 是一个数据库或向量存储集合可以是 ChromaDB、FAISS、Pinecone 等向量数据库对象。.add() 方法用于向集合中添加数据包括原始文档、嵌入向量和唯一 ID。 ids[fid{i1} for i in range(len(chunks))] # 生成文档 IDids 是文档唯一标识符用于在数据库中区分不同文档。fid{i1} 生成 id1, id2, id3 这样的字符串 ID。for i in range(len(chunks)) 依次编号确保每个文档有唯一 ID。
示例
输入
假设 chunks 是
chunks [文本片段1, 文本片段2, 文本片段3]执行
add_documents_to_collection(chunks)执行过程
1.计算 chunks 的嵌入
embeddings get_embedding(chunks) 假设返回
[[0.1, 0.2, 0.3], # 文本片段1的嵌入[0.4, 0.5, 0.6], # 文本片段2的嵌入[0.7, 0.8, 0.9] # 文本片段3的嵌入
]2.添加到 collection
collection.add(documents[文本片段1, 文本片段2, 文本片段3],embeddings[[0.1, 0.2, 0.3],[0.4, 0.5, 0.6],[0.7, 0.8, 0.9]],ids[id1, id2, id3]
)5. 用户输入内容
def get_user_input():return input(请输入您的问题: )
6. 查询集合中的文档
# 6. 查询集合中的文档
def query_collection(query_embeddings, n_results1):results collection.query(query_embeddings[query_embeddings], # 查询文本的嵌入n_resultsn_results # 返回的结果数量)return results[documents]
collection.query(...)对 collection 进行查询基于嵌入向量 执行相似度检索。query_embeddings[query_embeddings]将单个查询嵌入封装在列表中确保符合 API 要求。n_resultsn_results指定要返回的最相似的 n_results 个文档。
return results[documents]results 是 collection.query(...) 的返回结果它应该是一个 字典其中包含多个字段如 documents,embeddings , ids 等。results[documents] 获取查询返回的文档列表并返回。
7. 构建Prompt并生成答案
# 7. 构建Prompt并生成答案
def get_completion(prompt, modelgpt-3.5-turbo):message [{role: user, content: prompt}]result client.chat.completions.create(modelmodel,messagesmessage)return result.choices[0].message.content
主流程
if __name__ __main__:# 步骤1 加载文档document load_document(file_path)# 步骤2 文档分割chunks split_document(document)# 步骤3 embeddingadd_documents_to_collection(chunks) # 在分割后立即添加文档# 步骤4 用户输入内容user_input get_user_input()# 步骤5 将用户输入的问题进行embeddinginput_embedding get_embedding(user_input)[0] # 获取用户问题的嵌入# 步骤6 查询集合中的文档context_texts query_collection(input_embedding, n_results1) # 查询相关文档print(context_texts)# 步骤7 构建Prompt并生成答案prompt f上下文: {context_texts}\n\n问题: {user_input}\n\n请提供答案:answer get_completion(prompt)print(answer)
附录
函数解释
1. open() 函数语法
open(file, moder, buffering-1, encodingNone, errorsNone, newlineNone, closefdTrue, openerNone)参数说明 常见 mode模式 组合模式示例
rb 以 二进制模式 读取文件。wt 以 文本模式 写入文件。a 以 读写模式 打开文件并在文件末尾追加内容。
2.client.embeddings.create()
client.embeddings.create() 是 OpenAI API 提供的一个函数用于生成文本的嵌入embedding向量。它将文本转换为高维数值向量通常用于相似性计算、文本分类、搜索、推荐系统等 NLP 任务。
基本使用
import openai# 创建 OpenAI 客户端需要提供 API Key
client openai.OpenAI(api_keyyour-api-key)# 生成文本嵌入
response client.embeddings.create(input[Hello world, How are you?], # 输入文本可以是单个字符串或字符串列表modeltext-embedding-3-large # 选择的嵌入模型
)参数说明 3.collection.query()
collection.query() 是一个用于查询向量数据库的函数主要用于 基于向量嵌入embeddings的相似性搜索。它通常用于检索与查询向量最接近的文档或数据点。
results collection.query(query_embeddings[query_vector], # 查询向量必须是列表n_results3 # 需要返回的最相似的结果数量
)collection.query() 的返回结果
查询后的 results 变量通常是一个 字典常见的字段包括
{documents: [[文档1内容], [文档2内容], [文档3内容]],distances: [[0.12], [0.15], [0.18]],metadatas: [{id: doc1}, {id: doc2}, {id: doc3}]
}完整代码
import chromadb # 导入 chromadb 库
from openai import OpenAI # 导入 OpenAI 库
client OpenAI() # 创建一个 OpenAI 客户端实例file_path ./巴黎奥运会金牌信息.txt# 创建一个 chroma 客户端实例
chroma_client chromadb.Client()# 创建一个名为 my_collection 的集合
collection chroma_client.create_collection(namemy_collection)# 1. 加载并读取文档
def load_document(filepath):with open(filepath, r, encodingutf-8) as file:document file.read()return document# 2. 文档分割
def split_document(document):# 使用两个换行符来分割段落chunks document.strip().split(\n\n)return chunks # 返回包含所有文本块的列表# 3. embedding
def get_embedding(texts, modeltext-embedding-3-large):result client.embeddings.create(inputtexts,modelmodel)return [x.embedding for x in result.data]# 4. 向集合中添加文档
def add_documents_to_collection(chunks):embeddings get_embedding(chunks) # 获取文档块的嵌入collection.add(documentschunks, # 文档内容embeddingsembeddings, # 文档对应的嵌入向量ids[fid{i1} for i in range(len(chunks))] # 生成文档 ID)# 5. 用户输入内容
def get_user_input():return input(请输入您的问题: )# 6. 查询集合中的文档
def query_collection(query_embeddings, n_results1):results collection.query(query_embeddings[query_embeddings], # 查询文本的嵌入n_resultsn_results # 返回的结果数量)return results[documents]# 7. 构建Prompt并生成答案
def get_completion(prompt, modelgpt-3.5-turbo):message [{role: user, content: prompt}]result client.chat.completions.create(modelmodel,messagesmessage)return result.choices[0].message.content# 主流程
if __name__ __main__:# 步骤1 加载文档document load_document(file_path)# 步骤2 文档分割chunks split_document(document)# 步骤3 embeddingadd_documents_to_collection(chunks) # 在分割后立即添加文档# 步骤4 用户输入内容user_input get_user_input()# 步骤5 将用户输入的问题进行embeddinginput_embedding get_embedding(user_input)[0] # 获取用户问题的嵌入# 步骤6 查询集合中的文档context_texts query_collection(input_embedding, n_results1) # 查询相关文档print(context_texts)# 步骤7 构建Prompt并生成答案prompt f上下文: {context_texts}\n\n问题: {user_input}\n\n请提供答案:answer get_completion(prompt)print(answer)