当前位置: 首页 > news >正文

黄浦网站设计微信云开发

黄浦网站设计,微信云开发,河南省和城乡建设厅网站首页,网页设计素材怎么算侵权一般的深度学习项目#xff0c;训练时为了加快速度#xff0c;会使用多GPU分布式训练。但在部署推理时#xff0c;为了降低成本#xff0c;往往使用单个GPU机器甚至嵌入式平台#xff08;比如 NVIDIA Jetson#xff09;进行部署#xff0c;部署端也要有与训练时相同的深…         一般的深度学习项目训练时为了加快速度会使用多GPU分布式训练。但在部署推理时为了降低成本往往使用单个GPU机器甚至嵌入式平台比如 NVIDIA Jetson进行部署部署端也要有与训练时相同的深度学习环境如caffeTensorFlow等。由于训练的网络模型可能会很大比如inceptionresnet等参数很多而且部署端的机器性能存在差异就会导致推理速度慢延迟高。这对于那些高实时性的应用场合是致命的比如自动驾驶要求实时目标检测目标追踪等。所以为了提高部署推理的速度出现了很多轻量级神经网络比如squeezenetmobilenetshufflenet等。基本做法都是基于现有的经典模型提出一种新的模型结构然后用这些改造过的模型重新训练再重新部署。而tensorRT 则是对训练好的模型进行优化。 tensorRT就只是推理优化器。当你的网络训练完之后可以将训练模型文件直接丢进tensorRT中而不再需要依赖深度学习框架CaffeTensorFlow等如下 可以认为tensorRT是一个只有前向传播的深度学习框架这个框架可以将 CaffeTensorFlow的网络模型解析然后与tensorRT中对应的层进行一一映射把其他框架的模型统一全部 转换到tensorRT中然后在tensorRT中可以针对NVIDIA自家GPU实施优化策略并进行部署加速。如果想了解更多关于tensorrt的介绍可参考官网介绍。 一、安装 Installation Guide :: NVIDIA Deep Learning TensorRT Documentation 【精选】TensorRT安装及使用教程-CSDN博客 首先查看电脑是否正常安装cuda以及对应的版本至于cuda的安装可以查看《ubuntn16.04cuda9.0cudnn7.5小白安装教程》接下来去nvidia官网下载对应的tensorrt安装 包。常见的有两种安装方式 (1)deb格式文件下载 sudo dpkg -i nv-tensorrt-local-repo-{tag}_1.0-1_amd64.deb sudo cp /var/nv-tensorrt-local-repo-{tag}/*-keyring.gpg /usr/share/keyrings/ sudo apt-get update sudo apt-get install tensorrt 上面的tag号替换成自己下载的版本信息等nstall安装结束输入命令dpkg -l | grep TensorRT如果显示如下图有关tensorrt的信息说明tensorrt的c版本安装成功 如果想要同时安装python版本则可以进行如下操作 pip install nvidia-pyindex pip install nvidia-tensorrt 安装完成后可以执行以下命令查看其版本信息 python -c import tensorrt as trt;print(trt.__version__) (2)tar下载完成后进行如下步骤安装 ##安装依赖库 pip install pucuda -i https://pypi.douban.com/simple#在home下新建文件夹命名为tensorrt_tar然后将下载的压缩文件拷贝进来解压 tar -xzvf TensorRT-7.0.0.11.Ubuntu-18.04.x86_64-gnu.cuda-10.0.cudnn7.6.tar.gz#解压得到TensorRT-5.0.2.6的文件夹将里边的lib绝对路径添加到环境变量中 export LD_LIBRARY_PATH$LD_LIBRARY_PATH:/home/lthpc/tensorrt_tar/TensorRT-7.0.0.11/lib#安装TensorRT cd TensorRT-7.0.0.11/python pip install tensorrt-7.0.0.11-cp37-none-linux_x86_64.whl#安装UFF cd TensorRT-5.0.2.6/uff pip install uff-0.6.5-py2.py3-none-any.whl#安装graphsurgeon cd TensorRT-5.0.2.6/graphsurgeon pip install graphsurgeon-0.4.1-py2.py3-none-any.whl 当一切正常安装结束在终端下输入python -c  import tensorrt as trt不报错即表示安装成功。 需要注意的一点就是TensorRT与Opset版本之间的匹配关系取决于TensorRT的发行版本。TensorRT的每个版本通常支持一组特定的Opset版本这些Opset版本与不同的深度学习框架和模型格式相关联。 以下是TensorRT的一些主要版本以及它们通常支持的Opset版本 TensorRT 7.0: 支持Opset 9和Opset 10。 TensorRT 8.0: 支持Opset 11。 请注意这只是一些示例实际支持的Opset版本可能因TensorRT的更新和不同发行版本而有所变化。您应该查阅TensorRT的官方文档或相应的发行说明以获取特定版本的详细信息包括支持的Opset版本。此外确保您的模型与您使用的TensorRT版本兼容以获得最佳性能和准确性。如果您使用的是深度学习框架如TensorFlow、PyTorch等还需要确保导出模型时使用了TensorRT支持的Opset版本。 二、tensorrt使用分析 TensorRT使用笔记-CSDN博客 TensorRT整个过程可以分三个步骤即模型的解析ParserEngine优化和执行Execution。 》模型的解析Parser 目前TensorRT支持两种输入方式 一种是Parser的方式。Parser是模型解析器输入一个caffe的模型或者onnx模型或者TensorFlow转换成的uff模型可以解析出其中的网络层及网络层之间的连接关系然后将其输入到TensorRT中。API接口可以添加一个convolution或pooling。将Parser解析出来的模型文件使用API添加到TensorRT中构建网络。 Parser目前有三个 一个是caffe Parser这个是最古老的也是支持最完善的另一个是uff这个是NV定义的网络模型的一种文件结构现在TensorFlow可以直接转成uff另外版本3.5或4.0支持的onnx。 目前API支持两种接口实现方式 CPython 补如果有一个网络层不支持 这个有可能TensorRT只支持主流的操作比如说一个神经网络专家开发了一个新的网络层TensorRT是不知道是做什么的。这个时候涉及到customer layer的功能即用户自定义层构建用户自定义层需要告诉TensorRT该层的连接关系和实现方式这样TensorRT才能去做。 》engine优化 模型解析后engine会进行优化得到优化好的engine可以序列化到内存buffer或文件file读的时候需要反序列化将其变成engine以供使用。然后在执行的时候创建context主要是分配预先的资源engine加context就可以做推断Inference。 TensorRT所做的优化 第一也是最重要的它把一些网络层进行了合并。 第二取消不需要的层比如concat这一层。 第三Kernel可以自动选择最合适的算法。 第四不同的batch size会做tuning。 第五对硬件做优化。 总结TensorRT的优点 TensorRT是一个高性能的深度学习推断Inference的优化器和运行的引擎TensorRT支持Plugin对于不支持的层用户可以通过Plugin来支持自定义创建TensorRT使用低精度的技术获得相对于FP32二到三倍的加速用户只需要通过相应的代码来实现。 同时附上几个常用的接口 Network Definition (高阶用法) 网络定义接口提供方法来指定网络的定义。我们可以指定输入输出的Tensor Name以及增加layer。我们可以通过自定义来扩展TensorRT不支持的层和功能。关于网络定义的API请查看Network Definition API. Builder Builder接口让我们可以从一个网络定义中创建一个优化后的引擎。在这个步骤我们可以选择最大batchworkspace size精度级别等参数如果你想了解更多请查看Builder API. Engine 引擎接口就允许应用来执行推理了。它支持对引擎输入和输出的绑定进行同步和异步执行、分析、枚举和查询。 It supports synchronous and asynchronous execution, profiling, and enumeration and querying of the bindings for the engine inputs and outputs. 此外引擎接口还允许单个引擎拥有多个执行上下文(execution contexts). 这可以让一个引擎同时对多组数据进行执行推理操作。如想了解更多请查Execution API. 此外TensorRT还提供了解析训练模型并创建TensorRT内部支持的模型定义的parser Caffe Parser This parser can be used to parse a Caffe network created in BVLC Caffe or NVCaffe 0.16. It also provides the ability to register a plugin factory for custom layers. For more details on the C Caffe Parser, see NvCaffeParser or the Python Caffe Parser. UFF Parser This parser can be used to parse a network in UFF format. It also provides the ability to register a plugin factory and pass field attributes for custom layers. For more details on the C UFF Parser, see NvUffParser or the Python UFF Parser. ONNX Parser This parser can be used to parse an ONNX model. For more details on the C ONNX Parser, see NvONNXParser or the Python ONNX Parser. Restriction: Since the ONNX format is quickly developing, you may encounter a version mismatch between the model version and the parser version. The ONNX Parser shipped with TensorRT 5.1.x supports ONNX IR (Intermediate Representation) version 0.0.3, opset version 9. 三、tensorrt测试 python:TensorRT学习笔记3 - 运行sampleMNIST-CSDN博客 c:tensorRT学习笔记 Cversion 使用TensorRT进行模型推理加速的工作流(Workflow)可以分为以下几个步骤 ① 训练神经网络得到模型。(以Tensorflow为例我们得到xx.pb格式的模型文件)② 将模型用TensorRT提供的工具进行parsing(解析)。③ 将parsing后的结构通过TensorRT内部的优化选项(optimization options)对计算图结构进行优化。包括不限于1. 算子融合 Layer Funsion: 通过将Conv BN等层的融合降低数据的吞吐量。 2. 精度校准 Precision Calibration : 当用户为了节省计算资源使用INT8进行推理的时候需要作精度校准这个操作TensorRT提供了官方的支持。 3. kernel auto-tuning : 根据计算逻辑自动选择TensorRT实现的更高效的矩阵乘法卷积运算等逻辑。④ 通过上述步骤得到了一个优化后的推理引擎。我们就可以拿这个引擎进行推理了~ 》针对tensorflow模型先将pb模型转化为uff格式进入到uff包的安装路径转化命令如下 python convert_to_uff.py xxx.pb 参考链接 1、https://arleyzhang.github.io/articles/7f4b25ce/ 2、使用NVIDIA 免费工具TENSORRT 加速推理实践--YOLOV3目标检测_使用tensorrt 加速yolov3-CSDN博客 3、https://www.cnblogs.com/shouhuxianjian/p/10550262.html 4、TensorRT/YoloV3 - eLinux.org 5、yolov3 with tensorRT on NVIDIA Jetson Nano 6、使用NVIDIA 免费工具TENSORRT 加速推理实践--YOLOV3目标检测_使用tensorrt 加速yolov3-CSDN博客 7、https://blog.csdn.net/weixin_43842032/article/details/85336940tensorrt 安装和对tensorflow模型做推理,附python3.6解决方案 8、https://blog.csdn.net/qq_36124767/article/details/68484092tensorRT学习笔记 9、https://docs.nvidia.com/deeplearning/tensorrt/api/python_api/parsers/Uff/pyUff.htmlTensorRT 5.1.5.0 Python文档
http://www.w-s-a.com/news/235986/

相关文章:

  • 公司起名打分最准的免费网站学设计的学校
  • 用cn作网站行么WordPress网站打不开nginx
  • 顺德龙江网站建设百货商城自助下单网站
  • 门户网站采用较多的模式是wordpress自动搜索缩略图
  • 深圳设计功能网站做网站推广怎么做
  • 海口专业网站建设地址wordpress站点标题是什么
  • 青岛做网站那家好网页素材网
  • 宁夏银川做网站的公司网络营销有哪些推广方法
  • 免费域名网站哪个最好东莞企业网站排名
  • dz做网站网址模版
  • 做外贸网站平台中华室内设计师网
  • 三大网络架构seo是啥职业
  • 一个域名可以做中英文两个网站吗搜索引擎营销的6种方式
  • 可以做ppt的网站天津网站建设怎么样
  • 网站怎么做的qq邮件订阅浙江省住房和城乡建设厅网站查询
  • 主机屋网站在线做图片
  • 河南省城乡住房建设厅网站wordpress登陆密码
  • 漳州做网站的公司搭建网站多少时间
  • 网站开发实习计划模板微营销手机
  • 网站设计与制作是做什么工作免费封面设计在线制作生成
  • 网站开发的教学课程网站广告调词软件
  • 进下加强新闻宣传网站建设入门 做网站 书籍
  • 电商网站主题photolux wordpress
  • 周口专业做网站公司深圳市宝安区松岗街道邮政编码
  • 上海企业网站推广方法网络营销策划方案框架
  • 一流的常州网站建设机械加工网报价
  • 上海响应式网站建设公司seo课程总结
  • vs网站开发教程昆山普立斯特做的有网站
  • 柳州网站seo网站swordpress 输出内容
  • 网站设计制作电话多少网站流量下降