当前位置: 首页 > news >正文

下载站模板 wordpress网站不备案做优化

下载站模板 wordpress,网站不备案做优化,可以做游戏广告的网站,华为云wordpress淘宝此demo是自己提的一个需求#xff1a;用modelscope下载的本地大模型实现RAG应用。毕竟大模型本地化有利于微调#xff0c;RAG使内容更有依据。 为什么要用RAG#xff1f; 由于大模型存在一定的局限性#xff1a;知识时效性不足、专业领域覆盖有限以及生成结果易出现“幻觉…此demo是自己提的一个需求用modelscope下载的本地大模型实现RAG应用。毕竟大模型本地化有利于微调RAG使内容更有依据。 为什么要用RAG 由于大模型存在一定的局限性知识时效性不足、专业领域覆盖有限以及生成结果易出现“幻觉”问题需要通过结合实时数据和专业知识提升生成内容的准确性、时效性和可信度。‌‌检索增强生成RAG的核心价值在于弥补大模型固有缺陷 一个简单样例 加载本地大语言模型和embedding模型读取指定目录下的文档 import os import chromadb from modelscope import snapshot_download from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings from llama_index.core.node_parser import SimpleNodeParser from llama_index.embeddings.huggingface import HuggingFaceEmbedding from llama_index.llms.huggingface import HuggingFaceLLM from llama_index.core.base.llms.types import ChatMessage from llama_index.vector_stores.chroma import ChromaVectorStore # llamaindex中文网站 https://www.aidoczh.com/llamaindex/module_guides/index.html # https://docs.llamaindex.ai/en/stable/use_cases/ from dotenv import load_dotenv load_dotenv(dotenv_path.env) cache_apath os.path.join(os.getcwd(), cache) os.environ[TRANSFORMERS_CACHE] cache_apath os.environ[HF_HOME] cache_apath os.environ[MODELSCOPE_CACHE] cache_apathllm_model_name Qwen/Qwen2.5-0.5B-Instruct # deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B # llm_model_path os.path.join(cache_apath,*llm_model_name.replace(.,___).split(/)) # llm_model_path snapshot_download(llm_model_name, cache_dircache_apath) # 从modelscope下载大模型# 下载并指定sentence-transformers模型 sentence_transformers_name sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2 embedding_model_path os.path.join(cache_apath,*sentence_transformers_name.replace(.,___).split(/)) # embedding_model_path snapshot_download(sentence_transformers_name, cache_dircache_apath) # 从modelscope下载大模型# 初始化HuggingFaceEmbedding对象用于文本向量转换 embed_model HuggingFaceEmbedding(model_nameembedding_model_path) Settings.embed_model embed_model# 加载本地HuggingFace大模型 llm HuggingFaceLLM(model_namellm_model_path,tokenizer_namellm_model_path,model_kwargs{trust_remote_code: True},tokenizer_kwargs{trust_remote_code: True} ) #‌设置全局LLM属性‌ Settings.llm llmstore_vector2Chroma True #从指定目录读取文档将数据加载到内存 documentsSimpleDirectoryReader(rsource\data1).load_data() 文档可以加载到内存 或者 向量数据库里chroma或者FAISS等 加载到内存然后检索的范例 #创建一个VectorStoreIndex,并使用之前加载的文档来构建向量索引#此索引将文档转换为向量并存储这些向量(内存)以便于快速检索 indexVectorStoreIndex.from_documents(documents)# 创建一个查询引擎这个引擎可以接收查询并返回相关文档的响应。 query_engine index.as_query_engine() rsp query_engine.query(文章里相关的问题写在这里) print(rsp) 加载到chroma的范例 # 定义向量存储数据库 chroma_client chromadb.PersistentClient() chroma_collection chroma_client.get_or_create_collection(data1vector) vector_store ChromaVectorStore(chroma_collectionchroma_collection) # 创建节点解析器 node_parser SimpleNodeParser.from_defaults(chunk_size512, chunk_overlap100) # 将文档分割成节点 base_node node_parser.get_nodes_from_documents(documentsdocuments) # print(base_node) index VectorStoreIndex(nodesbase_node) # index VectorStoreIndex.from_documents(documentsdocuments) # 可以替代上面3句 # 将索引持久化到本地的向量数据库 index.storage_context.persist() # 创建一个查询引擎这个引擎可以接收查询并返回相关文档的响应。 query_engine index.as_query_engine() rsp query_engine.query(文章里相关的问题写在这里) print(rsp) chroma官网提供的API不是很多但是llama_index、langchain等进行封装封装得很好 文档尽量按照功能分为不同的小文件生成的向量json文件有对应每部分metadata的描述如此query的结果可以找到对应文章的哪几部分内容是什么
http://www.w-s-a.com/news/988002/

相关文章:

  • 站设计培训课程wordpress自动回复
  • 上海闵行区 网站建设永久免费crm软件下载
  • 天津营销网站建设公司排名台州网站排名公司
  • 环保网站 怎么做物流网站的功能与特色
  • 网站多久才会被收录服务器租用泰海
  • 电商网站建设合同模板临汾推广型网站建设
  • 天猫商务网站建设目的长春网站设计
  • 公司网站建设会议纪要昆山高端网站建设机构
  • 做消费网站流程深圳网站设计价格
  • 做电影网站怎么接广告中国最新军事新闻视频
  • 网站推广设计做哪些设置自动删除的wordpress
  • 东莞东坑网站设计专业网站制作设
  • 网站怎么做现场直播视频成都科技网站建设找
  • 个人网页设计步骤网站没有内容 能做优化吗
  • 专业网站建设公司招聘网站排行榜
  • 网站建设规范方法企业解决方案架构
  • ae做网站导航wordpress门户
  • 重庆市网站备案材料云南做网站
  • 网页设计模板网站免费珠海视窗网
  • 茂名模板建站定制WordPress注册不提示
  • 陕西营销型手机网站建设深圳制作网站服务
  • 受欢迎的锦州网站建设Wordpress 图片左右滑动
  • 湖南优化网站建设线上网站建设需求
  • 建什么类型的网站访问量比较大哪些外包公司比较好
  • php网站地图外贸建站哪家强外贸网站怎么做
  • 宁波五金网站建设中国建筑网官网投诉查询
  • 哪个网站注册域名便宜免费流程图制作网站
  • 潍坊做网站南宁网站seo优化公司
  • 网站建设的基本技术步骤无网站营销
  • 我国旅游网站的建设网站开发 混合式 数据库