(一)安装
1、必须下载专门的caffe-ssd源码,原生的ssd源码缺文件非常厉害,后期会让你从尝试到放弃,再到思考人生意义!
网址:https://github.com/weiliu89/caffe
具体的包后面再上传
2、具体安装可以参考下面文章
我是纯cpu安装的,第一篇文章就是这种,但千万不要用他的连接源码,不然会自闭的。
https://blog.csdn.net/zhaoyoulin2016/article/details/81200992
3、主要问题
主要问题就是依赖项和Makefile.config文件
依赖项:上面那篇文章也提到一些依赖项,但不完整,我的是全新ubuntu,之前那个莫名其妙网络连不了,重建的,其他一些依赖项和问题都可以从下面两篇文章里面找到:
https://blog.csdn.net/u012576214/article/details/68947893
https://www.linuxidc.com/Linux/2016-07/133225.htm
Makefile.config文件:后面上传
Makefile.config文件中有一点关于opencv的尤其需要注意,apt安装了libopencv-dev(版本为opencv3.2),需要在config文件里面开启opencv和opencv3选项(具体也可以在第三篇文章看到)
4、是否安装python接口?
事实上make all之后就可以了,test runtest什么的不需要。
如果要安装python接口的话可以参考这篇文章:
https://blog.csdn.net/nwsuaf_uestc/article/details/80182976
如果后面的操作没有问题,其实不装python接口也是可以的
(二)自己的数据集
首先需要讲下整个训练过程:
1、下载预训练集
2、下载数据集制作软件、制作VOC数据集
3、使用python脚本弄出四个txt文件
4、使用VOC2007下面的脚本(在caffe-ssd/data源码里面有,如果你用原生caffe那你就要自闭了)制作LMDB文件
具体过程:https://blog.csdn.net/lukaslong/article/details/81509855
我不重复造車,有一点需要提一提,最好严格按照文章说的来,那些路径有些地方很难理解,尤其是它需要在两个地方分别创建mydataset文件,这点废了我好大功夫才看明白。
两个create_xxx脚本的相关问题
1、最好在caffe根目录下运行之
2、不要用sudo运行,不要用sh命令运行,直接./data/……
否则会出现类似下面的问题:
tinnu@tinnu-pc:~/caffe$ sudo ./data/mydataset/create_data.sh
[sudo] tinnu 的密码:
./data/mydataset/create_data.sh: 1: ./data/mydataset/create_data.sh: Bad substitution
Traceback (most recent call last):File "/home/tinnu/caffe/scripts/create_annoset.py", line 7, in <module>from caffe.proto import caffe_pb2
ImportError: No module named caffe.proto
Traceback (most recent call last):File "/home/tinnu/caffe/scripts/create_annoset.py", line 7, in <module>from caffe.proto import caffe_pb2
ImportError: No module named caffe.proto
(三)训练
很遗憾,到了这里我才发现一个很严重的问题,那就是这玩意训练需要gpu……
如果有因为大的gpu的话可以考虑下:https://blog.csdn.net/hjxu2016/article/details/83866827
然而我这种……咳咳,只能放弃了