当前位置: 首页 > news >正文

高要seo整站优化知名的产品设计网站

高要seo整站优化,知名的产品设计网站,网站作业成品,最新新闻摘抄原文链接#xff1a;【RAG探索第3讲】LlamaIndex的API调用与本地部署实战 今天是2024年7月5日#xff0c;星期五#xff0c;天气晴#xff0c;北京。 RAG的文章也看不少了#xff0c;今天给大家带来一个llamaindex的实战。分为两个部分#xff0c;调用ChatGLM的API来用l…原文链接【RAG探索第3讲】LlamaIndex的API调用与本地部署实战 今天是2024年7月5日星期五天气晴北京。 RAG的文章也看不少了今天给大家带来一个llamaindex的实战。分为两个部分调用ChatGLM的API来用llamaindex和本地部署qwen1.5使用llamaindex。 LlamaIndex框架调用ChatGLM4 API实现RAG检索 概述 LlamaIndex 是一个“数据框架”可帮助您构建 LLM 应用程序。它提供以下工具 1提供数据连接器来获取您现有的数据源和数据格式API、PDF、文档、SQL 等。 2提供构建数据索引、图表的方法以便这些数据可以轻松地与 LLM 一起使用。 3为您的数据提供高级检索/查询接口输入任何 LLM 输入提示获取检索到的上下文和知识增强输出。 4允许轻松与外部应用程序框架集成例如 LangChain、Flask、Docker、ChatGPT 等。 LlamaIndex官网https://github.com/run-llama/llama_index 智谱API的获取 官网https://open.bigmodel.cn 点击右上角的开发工作台 点击查看API key 可在上端开发文档中的接口指南了解该API的使用这里采用的是langchain框架调用API接口 2.实践 本次运行需要通过HuggingFace连接嵌入模型推荐在本地部署。 1创建test.py文件将以下代码粘进去 from langchain_openai import ChatOpenAI import jwt import time from langchain_core.messages import HumanMessage from llama_index.core import GPTVectorStoreIndex, SimpleDirectoryReaderfrom llama_index.embeddings.huggingface import HuggingFaceEmbedding zhipuai_api_key 你的智谱APIdef generate_token(apikey: str, exp_seconds: int):try:id, secret apikey.split(.)except Exception as e:raise Exception(invalid apikey, e)payload {api_key: id,exp: int(round(time.time() * 1000)) exp_seconds * 1000,timestamp: int(round(time.time() * 1000)),}return jwt.encode(payload,secret,algorithmHS256,headers{alg: HS256, sign_type: SIGN},)class ChatZhiPuAI(ChatOpenAI):def __init__(self, model_name):super().__init__(model_namemodel_name, openai_api_keygenerate_token(zhipuai_api_key, 10),openai_api_basehttps://open.bigmodel.cn/api/paas/v4)def invoke(self, question):messages [HumanMessage(contentquestion),]return super().invoke(messages)# 加载数据需确认数据目录的正确性 documents SimpleDirectoryReader(data).load_data() #输出加载后的数据 print(documents:,documents) # 实例化BAAI/bge-small-en-v1.5模型 baai_embedding HuggingFaceEmbedding(model_nameBAAI/bge-small-en-v1.5)# 使用 BAAI/bge-small-en-v1.5 模型初始化GPTVectorStoreIndex index GPTVectorStoreIndex.from_documents(documents, embed_modelbaai_embedding)chatglm ChatZhiPuAI(model_nameglm-4) query_engine index.as_query_engine(llmchatglm) response query_engine.query(你的问题) print(response)2在test的同等目录下创建一个data文件夹用于存放加载的数据作者这里在data文件夹中放入的是.txt文件用于导入。 3运行即可以下为展示结果 数据信息 输出信息 由此可见运行成功输出信息来源于输入的数据。 3. 遇到的Bug以及解决办法 1 ImportError: cannot import name LangSmithParams from langchain_core.language_models.chat_models 经查询是langchain-openai包损坏本人出现Bug是包的版本是0.1.13 解决办法: 卸载当前包 pip unstall langchain-openai安装0.1.7即pip install langchain-openai0.1.7 参考链接https://github.com/langchain-ai/langchain/issues/22333 2 ModuleNotFoundError: No module named llama_index.llms.fireworks解决办法安装该包pip install llama_index.llms.fireworks 安装失败的话换源试试本人这里采用的是清华源 但是呢肯定会有很多人想问如果我不想用API或者由于某些原因没办法获得足够的API该怎么办呢下面提供一种不需要使用官方API直接部署就可以使用的方法并以qwen1.5为例子进行展示。 本地部署llamaindexqwen1.5 本地部署Qwen1.5使用LlamaIndex框架实现RAG 介绍 LlamaIndex官网https://github.com/run-llama/llama_index LlamaIndex官网提供了调用OpenAI和Llama的API构建向量存储索引。实践 1依赖包 pip install llama-index pip install llama-index-llms-huggingface pip install llama-index-embeddings-huggingface pip install llama-index ipywidgets2下载Qwen1.5以及嵌入模型 嵌入模型 git clone https://www.modelscope.cn/AI-ModelScope/bge-small-zh-v1.5.gitQwen1.5: git clone https://www.modelscope.cn/qwen/Qwen1.5-4B-Chat.git3创建data文件夹并在文件夹内放入相应的数据。本文采取txt格式信息来自百度百科。 4创建demo.py文件夹并将下列代码粘如 import torch from transformers import AutoModelForCausalLM, AutoTokenizer from llama_index.llms.huggingface import HuggingFaceLLM from llama_index.core import PromptTemplate from llama_index.embeddings.huggingface import HuggingFaceEmbedding from llama_index.core import SimpleDirectoryReader from llama_index.core import VectorStoreIndex from llama_index.core import Settings import os # os.environ[HF_ENDPOINT] https://hf-mirror.com os.environ[KMP_DUPLICATE_LIB_OK] True# Model names (make sure you have access on HF) LLAMA2_13B_CHAT /home/data/aaa/llamaindex/Qwen1.5-7B-Chatselected_model LLAMA2_13B_CHATSYSTEM_PROMPT You are an AI assistant that answers questions in a friendly manner, based on the given source documents. Here are some rules you always follow: - Generate human readable output, avoid creating output with gibberish text. - Generate only the requested output, dont include any other language before or after the requested output. - Never say thank you, that you are happy to help, that you are an AI agent, etc. Just answer directly. - Generate professional language typically used in business documents in North America. - Never generate offensive or foul language. query_wrapper_prompt PromptTemplate([INST]SYS\n SYSTEM_PROMPT /SYS\n\n{query_str}[/INST] )# Load model and tokenizer with device map device cuda if torch.cuda.is_available() else cputokenizer AutoTokenizer.from_pretrained(selected_model) model AutoModelForCausalLM.from_pretrained(selected_model, device_mapauto)llm HuggingFaceLLM(context_window4096,max_new_tokens128, # Further reduce the number of new tokens generatedgenerate_kwargs{temperature: 0, # Adjusted temperature for more varied responsesdo_sample: True, # Enable sampling for more varied responses},query_wrapper_promptquery_wrapper_prompt,tokenizer_nameselected_model,model_nameselected_model,device_mapauto )embed_model HuggingFaceEmbedding(model_name/home/data/aaa/llamaindex/bge-small-zh-v1.5)Settings.llm llm Settings.embed_model embed_model# Load documents documents SimpleDirectoryReader(/home/data/aaa/llamaindex/data).load_data()print(载入的数据-------------) # print(documents) print(---------------------)index VectorStoreIndex.from_documents(documents)# Set Logging to DEBUG for more detailed outputs query_engine index.as_query_engine()# Function to clear cache def clear_cache():if torch.cuda.is_available():torch.cuda.empty_cache()clear_cache()response query_engine.query(问题)print(回答---------------) print(response)clear_cache()注记得修改模型和数据路径 4输出结果 总结 本讲内容介绍了LlamaIndex框架的两种使用方法通过API调用和本地部署具体包括以下几个方面 LlamaIndex框架调用ChatGLM4 API实现RAG检索 LlamaIndex是一个帮助构建LLM应用程序的数据框架提供数据连接器、数据构建方法、高级检索接口以及与外部应用集成的功能。 获取智谱API的步骤及代码示例包括API key的生成、数据加载和模型实例化。 遇到的常见错误及解决方法如包版本问题和模块缺失问题。本地部署LlamaIndexQwen1.5实现RAG 提供了本地部署所需的依赖包和下载模型的步骤。 通过创建示例代码文件实现了LlamaIndex与Qwen1.5模型的结合展示了从数据加载到查询响应的完整流程。 强调了修改模型和数据路径的重要性并展示了运行结果。 合著作者USTB-zmh 相关阅读 【RAG探索第3讲】LlamaIndex的API调用与本地部署实战 【RAG探索第2讲】大模型与知识图谱的融合之路优势互补与协同发展 【RAG探索第1讲】通过大模型读取外部文档的创新探索与自适应策略 大模型名词扫盲贴 RAG实战-QAnything 提升大型语言模型性能的新方法:Query Rewriting技术解析 一文带你学会关键词提取算法—TextRank 和 FastTextRank实践
http://www.w-s-a.com/news/573364/

相关文章:

  • 淘宝做促销的网站集团门户网站建设策划
  • 网站排行榜查询怎样把个人介绍放到百度
  • vps 网站上传河北省招投标信息网
  • 武进网站建设咨询网站定制公司选哪家
  • 郑州市建设投资集团公司网站深圳企业网站建设推荐公司
  • 天津个人网站备案查询dz网站恢复数据库
  • 关于网站建设的期刊文献宣传片文案
  • 物业网站模板下载wordpress+菜单大小
  • 网站建设案例教程视频空间刷赞网站推广
  • 网站建设借鉴做外贸球衣用什么网站
  • 网站建设的前途微信公众号制作网站
  • 做网站之前要安装什么网站改进建议有哪些
  • 网站建设+管理系统开发山东专业网站建设公司
  • 基础微网站开发咨询中国印花图案设计网站
  • 找最新游戏做视频网站天津市招标投标公共服务平台
  • 电影订票网站怎么做注册地址出租多少钱
  • 做网站的规划和设想怎样做能让招聘网站记住密码
  • 建站知乎网站公告建设方案
  • 济南市住房和城乡建设局官方网站淮阳住房和城乡建设网站
  • 网站的设计特点有哪些seo推广要多少钱
  • wordpress开通多站点好处软件开发外包公司的设计一般多少钱
  • 为什么我的网站做不起来微信网页版登录手机版下载
  • 苏州市建设职业中心网站北京网站优化方法
  • 于飞网站开发溧阳 招网站开发
  • 网站中的宣传册翻页动画怎么做长沙有哪些网络平台公司
  • 如何做视频门户网站网站建设模板ppt
  • 青岛黄岛区网站开发百度云盘登录入口
  • 建设银行甘肃省行网站房地产市场调研报告
  • js 网站制作合肥公司网站建设
  • 最好建网站系统的软件wordpress调用模版