当前位置: 首页 > news >正文

谷歌云 wordpress搜索引擎优化平台

谷歌云 wordpress,搜索引擎优化平台,带做网站,免费logo设计在线设计制作工具节前#xff0c;我们组织了一场算法岗技术面试讨论会#xff0c;邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。 针对大模型 AIGC 技术趋势、大模型 AIGC 落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了…节前我们组织了一场算法岗技术面试讨论会邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。 针对大模型 AIGC 技术趋势、大模型 AIGC 落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。 总结链接如下 《AIGC 面试宝典》(2024版) 正式发布 喜欢记得点赞、收藏、关注。更多技术交流面经学习可以文末加入我们。 在 Microsoft Build 2024 上微软持续开源了 Phi-3 系列的新模型们。包括 Phi-3-vision这是一种将语言和视觉功能结合在一起的多模态模型。 Phi-3家族 Phi-3 系列模型是功能强大、性价比高的小型语言模型 (SLM)在各种语言、推理、编码和数学基准测试中效果优异。它们使用高质量的训练数据进行训练。 Phi-3 模型系列共有四种模型每种模型都经过安全保障进行指令调整和开发以确保可以直接使用目前均已开源。 Phi-3-vision是一个具有语言和视觉功能的 4.2B 参数多模态模型。 Phi-3-mini是一个 3.8B 参数语言模型有两种上下文长度128K和4K。 Phi-3-small是一个 7B 参数语言模型有两种上下文长度128K和8K。 Phi-3-medium是一个 14B 参数语言模型有两种上下文长度128K和4K。 模型种类模型名称模型链接Phi-3-visionPhi-3-vision-128k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-vision-128k-instructPhi-3-miniPhi-3-mini-128k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-mini-128k-instructPhi-3-mini-4k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-mini-4k-instructPhi-3-mini-128k-instruct-onnxhttps://modelscope.cn/models/LLM-Research/Phi-3-mini-128k-instruct-onnxPhi-3-mini-4k-instruct-onnxhttps://modelscope.cn/models/LLM-Research/Phi-3-mini-4k-instruct-onnxPhi-3-mini-4k-instruct-onnx-webhttps://modelscope.cn/models/LLM-Research/Phi-3-mini-4k-instruct-onnx-webPhi-3-smallPhi-3-small-8k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-small-8k-instruct/summaryPhi-3-small-8k-instruct-onnx-cudahttps://modelscope.cn/models/LLM-Research/Phi-3-small-8k-instruct-onnx-cuda/summaryPhi-3-small-128k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-small-128k-instructPhi-3-small-128k-instruct-onnx-cudahttps://modelscope.cn/models/LLM-Research/Phi-3-small-128k-instruct-onnx-cudaPhi-3-mediumPhi-3-medium-128k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-medium-128k-instructPhi-3-medium-4k-instructhttps://modelscope.cn/models/LLM-Research/Phi-3-medium-4k-instructPhi-3-medium-4k-onnx-directmlhttps://modelscope.cn/models/LLM-Research/Phi-3-medium-4k-instruct-onnx-directmlPhi-3-medium-4k-onnx-cudahttps://modelscope.cn/models/LLM-Research/Phi-3-medium-4k-instruct-onnx-cudaPhi-3-medium-4k-onnx-cpuhttps://modelscope.cn/models/LLM-Research/Phi-3-medium-4k-instruct-onnx-cpuPhi-3-medium-128k-onnx-directmlhttps://modelscope.cn/models/LLM-Research/Phi-3-medium-128k-instruct-onnx-directmlPhi-3-medium-128k-onnx-cudahttps://modelscope.cn/models/LLM-Research/Phi-3-medium-128k-instruct-onnx-cudaPhi-3-medium-128k-onnx-cpuhttps://modelscope.cn/models/LLM-Research/Phi-3-medium-128k-instruct-onnx-cpu Phi-3 模型已经过优化可以在各种硬件上运行。ONNX ONNX Runtime | Phi-3 Small and Medium Models are now optimized with ONNX Runtime and DirectML格式和 DirectML提供优化过的模型权重为开发人员提供跨各种设备和平台包括移动和 Web 部署的支持。Phi-3 模型还可以作为NVIDIA NIM推理微服务提供具有标准 API 接口可以部署在任何地方Production-Ready APIs That Run Anywhere | NVIDIA并针对 NVIDIA GPUhttps://blogs.nvidia.com/blog/microsoft-build-optimized-ai-developers/和Intel 加速器Microsoft Phi-3 GenAI Models with Intel AI Solutions上的推理进行了优化。 将多模态引入Phi-3 Phi-3-vision 是 Phi-3 系列中的第一个多模态模型它将文本和图像结合在一起并具有推理现实世界图像以及从图像中提取和推理文本的能力。它还针对图表和图解理解进行了优化可用于生成见解和回答问题。Phi-3-vision 以 Phi-3-mini 的语言功能为基础继续在小型模型中整合强大的语言和图像推理质量。 模型推理 多模态模型推理Phi-3-vision-128k-instruct 在魔搭社区的免费GPU算力体验Phi-3多模态模型单卡A10 推理代码 from PIL import Image import requests from modelscope import snapshot_download from transformers import AutoModelForCausalLM from transformers import AutoProcessor model_id snapshot_download(LLM-Research/Phi-3-vision-128k-instruct )model AutoModelForCausalLM.from_pretrained(model_id, device_mapcuda, trust_remote_codeTrue, torch_dtypeauto)processor AutoProcessor.from_pretrained(model_id, trust_remote_codeTrue) messages [ {role: user, content: |image_1|\n图片里面有什么?}, {role: assistant, content: 该图表显示了同意有关会议准备情况的各种陈述的受访者的百分比。它显示了五个类别“有明确和预先定义的会议目标”、“知道在哪里可以找到会议所需的信息”、“在受邀时了解我的确切角色和职责”、“拥有管理工具” 诸如记笔记或总结之类的管理任务”以及“有更多的专注时间来充分准备会议”。每个类别都有一个关联的条形图指示一致程度按 0% 到 100% 的范围进行衡量。}, {role: user, content: 提供富有洞察力的问题来引发讨论。} ] url https://assets-c4akfrf5b4d3f4b7.z01.azurefd.net/assets/2024/04/BMDataViz_661fb89f3845e.png image Image.open(requests.get(url, streamTrue).raw) prompt processor.tokenizer.apply_chat_template(messages, tokenizeFalse, add_generation_promptTrue)inputs processor(prompt, [image], return_tensorspt).to(cuda:0) generation_args { max_new_tokens: 500, temperature: 0.0, do_sample: False, } generate_ids model.generate(**inputs, eos_token_idprocessor.tokenizer.eos_token_id, **generation_args) # remove input tokens generate_ids generate_ids[:, inputs[input_ids].shape[1]:] response processor.batch_decode(generate_ids, skip_special_tokensTrue, clean_up_tokenization_spacesFalse)[0] print(response)显存占用 跨平台推理Phi-3-medium-4k-instruct-onnx-cpu 配置 step1: 下载模型 git clone https://www.modelscope.cn/LLM-Research/Phi-3-medium-4k-instruct-onnx-cpu.gitstep2安装依赖 pip install --pre onnxruntime-genaistep3运行模型 curl https://raw.githubusercontent.com/microsoft/onnxruntime-genai/main/examples/python/phi3-qa.py -o phi3-qa.py python phi3-qa.py -m Phi-3-medium-4k-instruct-onnx-cpu/cpu-int4-rtn-block-32-acc-level-4体验对话效果 模型微调 SWIFT已经支持Phi3系列模型的微调包括纯文本模型如Phi3-mini-128k-instruct、Phi3-small-128k-instruct、Phi3-middle-128k-instruct等也包括了Phi3的多模态模型Phi-3-vision-128k-instruct。 下面以多模态模型为例给出微调最佳实践 # Experimental environment: 4 * A100 # 4 * 18GB GPU memory nproc_per_node4PYTHONPATH../../.. \ CUDA_VISIBLE_DEVICES0,1,2,3 \ torchrun \--nproc_per_node$nproc_per_node \--master_port 29500 \llm_sft.py \--model_type phi3-vision-128k-instruct \--model_revision master \--sft_type lora \--tuner_backend peft \--template_type AUTO \--dtype AUTO \--output_dir output \--ddp_backend nccl \--dataset coco-en-2-mini \--train_dataset_sample -1 \--num_train_epochs 1 \--max_length 4096 \--check_dataset_strategy warning \--lora_rank 8 \--lora_alpha 32 \--lora_dropout_p 0.05 \--lora_target_modules ALL \--gradient_checkpointing true \--batch_size 1 \--weight_decay 0.1 \--learning_rate 1e-4 \--gradient_accumulation_steps $(expr 16 / $nproc_per_node) \--max_grad_norm 0.5 \--warmup_ratio 0.03 \--eval_steps 100 \--save_steps 100 \--save_total_limit 2 \--logging_steps 10 \--use_flash_attn true \--ddp_find_unused_parameters true \我们使用训练时长约3小时训练loss收敛情况如下 显存占用 Phi3-vision支持多个图片传入在训练后我们可以使用ckpt进行多图片推理 显存占用 技术交流资料 技术要学会分享、交流不建议闭门造车。一个人可以走的很快、一堆人可以走的更远。 成立了算法面试和技术交流群相关资料、技术交流答疑均可加我们的交流群获取群友已超过2000人添加时最好的备注方式为来源兴趣方向方便找到志同道合的朋友。 方式①、微信搜索公众号机器学习社区后台回复加群 方式②、添加微信号mlc2040备注来自CSDN 技术交流 通俗易懂讲解大模型系列 重磅消息《大模型面试宝典》(2024版) 正式发布 重磅消息《大模型实战宝典》(2024版) 正式发布 做大模型也有1年多了聊聊这段时间的感悟 用通俗易懂的方式讲解大模型算法工程师最全面试题汇总 用通俗易懂的方式讲解不要再苦苦寻觅了AI 大模型面试指南含答案的最全总结来了 用通俗易懂的方式讲解我的大模型岗位面试总结共24家9个offer 用通俗易懂的方式讲解大模型 RAG 在 LangChain 中的应用实战 用通俗易懂的方式讲解ChatGPT 开放的多模态的DALL-E 3功能好玩到停不下来 用通俗易懂的方式讲解基于扩散模型Diffusion,文生图 AnyText 的效果太棒了 用通俗易懂的方式讲解在 CPU 服务器上部署 ChatGLM3-6B 模型 用通俗易懂的方式讲解ChatGLM3-6B 部署指南 用通俗易懂的方式讲解使用 LangChain 封装自定义的 LLM太棒了 用通俗易懂的方式讲解基于 Langchain 和 ChatChat 部署本地知识库问答系统 用通俗易懂的方式讲解Llama2 部署讲解及试用方式 用通俗易懂的方式讲解一份保姆级的 Stable Diffusion 部署教程开启你的炼丹之路 用通俗易懂的方式讲解LlamaIndex 官方发布高清大图纵览高级 RAG技术 用通俗易懂的方式讲解为什么大模型 Advanced RAG 方法对于AI的未来至关重要 用通俗易懂的方式讲解基于 Langchain 框架利用 MongoDB 矢量搜索实现大模型 RAG 高级检索方法
http://www.w-s-a.com/news/760676/

相关文章:

  • 哪有app制作公司上海seo排名
  • 长沙建站seo公司北京招聘信息
  • 建设网站情况说明范文四川个人证书查询网官网
  • 推广学校网站怎么做公司可以做多个网站吗
  • 游戏网站后台建设郑州定制网站
  • 商务公司网站建设网站建设如何自学
  • 现在建网站可以拖拉式的吗中国国内最新新闻
  • phpstorm网站开发产品logo设计
  • 电子商务网站建设与运营什么是单页面网站
  • 西安优化网站公司南阳微信网站
  • 购物网站线下推广方案佛山快速建站哪家服务专业
  • 临沂网站排名外贸网站推广方法之一
  • 手机网站百度关键词排名查询吕梁网站制作吕梁安全
  • 做网站媒体wordpress管理员账号数据库添加
  • php如何自己做网站wordpress怎么修改编辑代码
  • 网站建网站建设公司WordPress互联
  • 泊头市网站建设价格wordpress导航菜单位置
  • 怎么设立网站赚广告费网页制作素材模板图片
  • 做班级网站的目的网站设计制作公司需要什么资质
  • 济南做网站哪家好财政网站平台建设不足
  • php网站建设招聘网站开发与设计论文
  • 上海 网站建设平台 补贴网站开发招标文件范本
  • 延安网站建设公司电话手机上那个网站做农产品推广比较好
  • 增城哪家网站建设好如何做网站实名认证
  • 常州地区做网站个人购物网站需要备案吗
  • 网站建设公司 跨界鱼科技专业做服务器的网站都有哪些
  • 欧洲网站服务器网站建设费用计入什么科目
  • 网站的色调苏州策划网站模板建站公司
  • 怎么看网站用的什么后台公路建设项目可行性研究报告编制办法哪个网站查最新版
  • 可以看的网站的浏览器有哪些专业APP客户端做网站