tensorrt+tensorflow+object_detection编译安装填坑教程!!_warning: no files found matching '*.pyd' under dir-程序员宅基地

技术标签: 深度学习  

tensorflow+tensorrt+object_detection (CUDA10.0 Cudnn7.4.1) 在anconda 环境下编译安装


安装环境

os: ubuntu 16.04
cuda:10.0
cudnn:7.4.1(其它版本也可以,eg:7.3.1)
tensorflow:1.13.0rc(1.13.1版本容易编译失败)
python:3.5 (3.7版本编译1.13.0,编译失败)
tensorrt:5.0.2

安装tensorrt

tensorrt 各种版本下载地址需要注册账号登录:https://developer.nvidia.com/nvidia-tensorrt-5x-download

官方教程:https://developer.download.nvidia.cn/compute/machine-learning/tensorrt/docs/5.0/GA_5.0.2.6/TensorRT-Installation-Guide.pdf


官方教程中提供三种安装方式分别为deb,tar,和rpm。我使用deb,和tar两种方式均安装成功,第三种方式没有尝试过。推荐使用tar方式安装。

Tar方式安装tensorrt

1.Tensorrt support matrix

tensorrt支持的配置如下:

Tensorrt ubuntu cuda tensorflow
5.1.5 ubuntu 16.04 cuda 10.1.168 tensorflow1.13.1
5.1.2 ubuntu 16.04 cuda 10.1.105 tensorflow1.13.1
5.0.2 ubuntu 16.04 cuda 10.0.130 tensorflow1.13.0rc0
tensorflow1.12.0

经过尝试第三个配置容易容易编译成功。

安装步骤
  • 如果使用anconda安装,首先创建虚拟环境:例如创建名为trt的独立虚拟环境

     conda create -n trt python=3.5
     //激活环境
     conda activate trt
    
  • 下载tensorrt并解压到安装的路径:例如:/home/user_1/software/TensorRT-5.0.2.6
    可以使用ubuntu16.04自带的文件管理系统解压或者执行如下命令:

    $ tar xzvf TensorRT-5.1.x.x.Ubuntu-1x.04.x.x86_64-gnu.cuda-x.x.cudnn7.x.tar.gz
    

    其中:
    5.1.x.x 是下载的 TensorRT 版本
    Ubuntu-1x.04.x 为 14.04.5 , 16.04.4 or 18.04.1
    cuda-x.x 是 CUDA ver版本 9.0 , 10.0 , or 10.1
    cudnn7.x 为 cuDNN 版本 7.5

    解压之后执行命令:

    $ ls TensorRT-5.1.x.x
    bin data doc graphsurgeon include  TensorRT-Release-Notes.pdf uff
    
  • 添加Tensorrt/lib 安装路径 到系统变量LD_LIBRARY_PATH,执行如下命令:

    $ export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:<eg:TensorRT-5.1.x.x/lib>
    
  • 安装Tensorrt wheel 文件

    //如果使用虚拟环境可以省去sudo
    $ cd TensorRT-5.1.x.x/python
    $ sudo pip3 install tensorrt-5.1.x.x-cp3x-none-linux_x86_64.whl
    
  • 安装uff wheel文件

    $ cd TensorRT-5.1.x.x/uff
    $ sudo pip3 install graphsurgeon-0.4.0-py2.py3-none-any.whl
    

安装tensorflow

在安装完tensorrt后可以根据tensorflow官方编译安装教程安装tensorflow。官方教程链接为:https://tensorflow.google.cn/install/source


(详细步骤请参考官方文档)

  • 激活事先创建好的python环境

    conda activate trt
    
  • 安装依赖

    pip install -U --user pip six numpy wheel setuptools mock future>=0.17.1
    pip install -U --user keras_applications==1.0.6 --no-deps
    pip install -U --user keras_preprocessing==1.0.5 --no-deps
    
  • 安装工程管理工具bazel
    安装教程参考官方文档(不同版本的tensorflow需要不同版本的bazel),参考地址:https://docs.bazel.build/versions/master/install.html

  • 下载tensorflow源代码

    git clone https://github.com/tensorflow/tensorflow.git
    cd tensorflow
    
  • 配置安装路径等执行命令

    ./configure
    

    配置过程有几点要注意一个是选择的python版本与其对应的packages地址。第二个选择cuda时cuda版本与路径是否正确,三是是否支持tensorrt,输入正确的tensort安装地址,如果是deb安装默认即可,如果tar安装则需要复制tensorrt的安装地址,其它的选择n即可,如果编译不过查看是否有配置错误,如果配置错误运行命令 bazel clean 后重新执行./config命令,注意询问是否使用clang作为CUDA的编译器时选择N:

    You have bazel 0.15.0 installed.
    Please specify the location of python. [Default is /home/shx/anaconda3/envs/trt/bin/python]: //根据提示选择你的python路径,由于我激活了虚拟环境所以默认的就是我的虚拟环境地址
    
    Found possible Python library paths:
      /home/shx/anaconda3/envs/trt/lib/python3.5/site-packages
    Please input the desired Python library path to use.  Default is [/home/shx/anaconda3/envs/trt/lib/python3.5/site-packages]://这个是选择python对应的packages安装地址
    
    Do you wish to build TensorFlow with jemalloc as malloc support? [Y/n]:
    jemalloc as malloc support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with Google Cloud Platform support? [Y/n]:
    Google Cloud Platform support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with Hadoop File System support? [Y/n]:
    Hadoop File System support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with Amazon AWS Platform support? [Y/n]:
    Amazon AWS Platform support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with Apache Kafka Platform support? [Y/n]:
    Apache Kafka Platform support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with XLA JIT support? [y/N]:
    No XLA JIT support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with GDR support? [y/N]:
    No GDR support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with VERBS support? [y/N]:
    No VERBS support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with OpenCL SYCL support? [y/N]:
    No OpenCL SYCL support will be enabled for TensorFlow.
    
    Do you wish to build TensorFlow with CUDA support? [y/N]: Y
    CUDA support will be enabled for TensorFlow.
    
    Please specify the CUDA SDK version you want to use. [Leave empty to   default to CUDA 9.0]: 9.0
    ./configure
    Please specify the location where CUDA 9.0 toolkit is in./configurestalled. Refer to   README.md for more details. [Default is /usr/local/./configurecuda]:
    ./configure
    Please specify the cuDNN version you want to use. [Leave./configure empty to default   to cuDNN 7.0]: 7.0./configure
    ./configure
    Please specify the location where cuDNN 7 library is ins./configuretalled. Refer to   README.md for more details. [Default is /usr/local/cud./configurea]:
    
    Do you wish to build TensorFlow with TensorRT support? [y/N]:
    No TensorRT support will be enabled for TensorFlow.
    
    Please specify the NCCL version you want to use. If NCLL 2.2 is not   installed, then you can use version 1.3 that can be fetched automatically   but it may have worse performance with multiple GPUs. [Default is 2.2]: 1.3
    
    Please specify a list of comma-separated Cuda compute capabilities you   want to build with.
    You can find the compute capability of your device at: https://  developer.nvidia.com/cuda-gpus.
    Please note that each additional compute capability significantly   increases your
    build time and binary size. [Default is: 3.5,7.0] 6.1
    
    Do you want to use clang as CUDA compiler? [y/N]:
    nvcc will be used as CUDA compiler.
    
    Please specify which gcc should be used by nvcc as the host compiler.   [Default is /usr/bin/gcc]:
    
    Do you wish to build TensorFlow with MPI support? [y/N]:
    No MPI support will be enabled for TensorFlow.
    
    Please specify optimization flags to use during compilation when bazel   option "--config=opt" is specified [Default is -march=native]:
    
    Would you like to interactively configure ./WORKSPACE for Android builds?   [y/N]:
    Not configuring the WORKSPACE for Android builds.
    
    Preconfigured Bazel build configs. You can use any of the below by adding   "--config=<>" to your build command. See tools/bazel.rc for more details.
        --config=mkl            # Build with MKL support.
        --config=monolithic     # Config for mostly static monolithic build.
    Configuration finished
    
    
  • 配置完成后执行下面命令编译tensorflow

    bazel build --config=opt --config=cuda //tensorflow/tools/   
    

    下面为build完成后出现的信息,其中wheel文件存储在/tmp/tensorflow_pkg文件夹下

    warning: no files found matching '*.pyd' under directory '*'
    warning: no files found matching '*.pd' under directory '*'
    warning: no files found matching '*.dll' under directory '*'
    warning: no files found matching '*.lib' under directory '*'
    warning: no files found matching '*.h' under directory 'tensorflow/include/   tensorflow'
    warning: no files found matching '*' under directory 'tensorflow/include/   Eigen'
    warning: no files found matching '*.h' under directory 'tensorflow/include/   google'
    warning: no files found matching '*' under directory 'tensorflow/include/   third_party'
    warning: no files found matching '*' under directory 'tensorflow/include/   unsupported'
    2019年 07月 23日 星期二 08:54:08 CST : === Output wheel file is in: /tmp/tensorflow_pkg
    
    

    安装tensorflow wheel文件

    pip_package:build_pip_package
    

验证是否安装成功

在tensorrt安装路径下存在TensorRT-5.0.2.6/samples/python/end_to_end_tensorflow_mnist demo。

$ cd TensorRT-5.0.2.6/samples/python/end_to_end_tensorflow_mnist demo
$ mkdir models
$ python model.py

出现如下信息:

2019-07-23 09:09:03.239484: I tensorflow/stream_executor/dso_loader.cc:152] successfully opened CUDA library libcublas.so.10.0    locally
60000/60000 [==============================] - 8s 135us/sample - loss:    0.1978 - acc: 0.9409
Epoch 2/5
60000/60000 [==============================] - 8s 131us/sample - loss:    0.0789 - acc: 0.9761
Epoch 3/5
60000/60000 [==============================] - 8s 130us/sample - loss:    0.0530 - acc: 0.9831
Epoch 4/5
60000/60000 [==============================] - 8s 129us/sample - loss:    0.0351 - acc: 0.9893
Epoch 5/5
60000/60000 [==============================] - 8s 128us/sample - loss:    0.0279 - acc: 0.9912
10000/10000 [==============================] - 1s 65us/sample - loss:    0.0751 - acc: 0.9767

执行命令:

$ python sample.py -d /home/user_XX/software/TensorRT-5.0.2.6/data
Test Case: 4
Prediction: 4

如果使用deb方式安装,直接执行python sample.py即可。如果使用tar文件安装需要指定data路径,这个文件在TensorRT安装的根目录下。
可以看到测试样本4 预测值4,说明成功安装tensorrt和tensorflow。

安装tensorflow objection api

TensorFlow对象检测API是一个基于TensorFlow构建的开源框架,可以轻松构建,训练和部署对象检测模型。官方简介和安装教程地址为:https://github.com/tensorflow/models/tree/master/research/object_detection

参考官方教程安装如果报错:from tensorflow.python.eager import monitoring ImportError: cannot import monitoring

通过pip 查看tensorflow-estimator版本是否和当前匹配,如果不匹配通过

$ pip uninstall tensorflow-estimator

卸载后再使用

$ pip install tensorflow-estimator==

查看版本,然后

$ pip install tensorflow-estimator==version

成功安装。

tensorrt tensorflow官方例程使用

上述步骤全部安装完成,学习基于tensorrt 官方例程。例子地址:https://github.com/tensorflow/tensorrt/tree/r1.13/tftrt/examples/object_detection

* note:tensorflow/tensorrt 提供的例程有两个分支其中最新的master分支支持tensorflow1.14以上版本。如果tensorflow安装的是之前的版本请选择1.13及一下版本。

tensorflow/tensorrt 验证参考

Object Detection

Download

from tftrt.examples.object_detection import download_model

config_path, checkpoint_path = download_model('ssd_mobilenet_v1_coco', output_dir='models')
# help(download_model) for more

Optimize

from tftrt.examples.object_detection import optimize_model

frozen_graph = optimize_model(
    config_path=config_path, 
    checkpoint_path=checkpoint_path,
    use_trt=True,
    precision_mode='FP16'
)
# help(optimize_model) for other parameters

note:如果报错Segmentation fault(core dumped)(这个问题坑了我一周,一直以为是编译安装出了问题!!!!) 不要慌!!!可能是因为函数

trt.create_inference_graph(
                    input_graph_def=frozen_graph,
                    outputs=output_names,
                    max_batch_size=max_batch_size,
                    max_workspace_size_bytes=max_workspace_size_bytes,
                    precision_mode=precision_mode,
                    minimum_segment_size=minimum_segment_size,
                    is_dynamic_op=False,
                    maximum_cached_engines=maximum_cached_engines)

max_workspace_size_bytes参数设置的小了。上述参数可以在object_detection.py中修改。经过反复尝试,最好修改这段代码,直接加载.pb文件进行转换。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/shenhuaifeng/article/details/96969817

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线