nvidia jetson 开发板运行 jetson-inference 出现问题的终极解决办法
感觉国内的网git clone jetson-inference到 jetson TX2(TX1类似)后,进行cmake后会出一个较大的问题,也许你的网没问题,那就OK,如果网不行,像我这样的,那就真心的坑了。
说说的遇到的情况吧,就是git clone jetson-inference后,执行cmake ../后老是报nvidia.app.box.com连接不上,有的开发者的解决办法是翻{*防那个谁*}墙 ,然后下载,即使能翻出去,也是运气好的情况下才能运行,最后不报错,但是我是把jetson TX2都翻了出去(至于怎么翻,请看我的上一篇博客),还是不行, 所以我就从买开发板的店商找技术支持,不过最后我的问题还是没解决。
然后被逼无奈,我自己在nvidia的中文官方论坛发帖求助,然后没人理,可能这个问题要么遇到的人少,要么是就是遇到了可能还没解决,之后我在nvidia的英文论坛发帖,恢复的挺及时的,开心,然后,按着那办法就慢慢来,也是没解决,然后,在那官方回复给的github链接上,我问了,一老外,然后,给了回复,给了我很大的启发,哈哈^...^,在此谢谢帮住我的人!
我的分析和解决办法:
问题是:在执行cmake ../ 命令是,需要执行jetson-inference下的CMkeList.txt,而在编译CMkeList.txt时要执行预安装脚本(CMakePreBuild.sh)并自动安装任何依赖项。
问题是:在执行cmake ../ 命令是,需要执行jetson-inference下的CMkeList.txt,而在编译CMkeList.txt时要执行预安装脚本(CMakePreBuild.sh)并自动安装任何依赖项。
而问题就出在这,打开CMakePreBuild.sh后,就能知道里面是网址,是所需要下载的依赖项,(为啥官方不直接把这些依赖项直接放在jetson-inference中呢,因为这些依赖项实在是太大了有1.7个G,开发板的存储就那么大,这些依赖项有的开发者不一定用的到),其实就是因为这些依赖项太大了,又挂在外网上(nvidia.app.box.com,我电脑翻了出去都不能ping到,这着实很操蛋),所以,就容易下载不下来,或者是下载失败,即使成功了,也会是下载特别特别慢,我问的老外的解决办法是,把依赖项挂载在google云盘上,我是从google云盘上下载下来的,不过但是还是不能用,其实后来又花了时间才搞明白,老外挂载在google云盘上的依赖项不全,而我在cmake时,networks里下载了bvlc_alexnet.caffemodel和bvle_googlenet.caffemodel,所以一直没注意这两个文件虽然显示下载成功了,但是是空的,也就是没有下载成功,所以,最后不能用。
上面说的有点乱,可能是这个坑太大了,真心发个牢骚吧。
看这里:解决办法
1、先看此链接: http://www.gpus.cn/qianduan/front/getNewsArc?articleid=139
2、从GitHub上clone 好 jetson-inference后,要打开CMakePreBuild.sh文件,然后分别对应链接下载文件,全部下载好后就放到data文件夹下的networks的文件中,然后注释掉CMakePreBuild.sh文件中已经下载好的命令行
执行cmake../命令和make命令后会很快
其实有的文章介绍中间编译慢,其实那时间是花在下载文件上了。
还有不明白的可以问我^...^