补充一个问题:一般大家都是用什么技术在wince下进行视频采集,编解码以及传输的?
自己目前正在尝试:
一、采集摄像头的数据:通过directshow,编写filter采集、编码以及发送,但是我发现采集sample的时候非常的慢,一秒只能采集到2到3个sample,debug和release模式都一样,有谁能告诉下这是正常的吗?
二、编解码
采用软编码的话,可能6410会负担不起(本人只拿过汪兵的例子,里面那个dmo软编码,慢到可怜,就不敢使用),所以采用硬编解码。单独拿每个桢进行编码和解码都没问题,但是当整一个流程连起来使用的时候就会出现mgeg4decode configuration 错误。
三、传输
采用jrtplib第三方实时传输,这个又有错误,在release模式下,使用jthread的话,会出现“data abort”问题,然后就应用程序提示严重错误。不使用jthread的话,当进行create session的时候,打印加载wspm.dll的时候,就停住,程序卡住不跑了。
程序总共分三块,结果每一块都有问题,严重打击我幼小的心灵,有哪位大牛能不吝啬自己的经验,分享点来指导我这迷途的羔羊。。。。。。
------解决方案--------------------
路过 顶一个
------解决方案--------------------
没搞过,帮顶下
------解决方案--------------------
学习!
------解决方案--------------------
一、采集这个帧率可以调的,或者编码速度? 或者驱动支持不好
二、软编码 用jpg 还行。要用h263这种的就得硬编,
三、冒用过
------解决方案--------------------
一,先不用directshow,写个独立的程序测一下帧率,现在肯定不正常
二,还是研究下自带的例子吧
三,你需要什么样的传输?流媒体式的还是普通tcp/udp传输?
一般来说,帧率是摄像头端设置的,tvp5150只是单纯解码而已
------解决方案--------------------
1、建议用GetTickCount在获取帧的地方打印一下 看看获取单帧图片到底花了多少时间,以确认耗时的地方到底在哪儿
2、建议编码解码用同一个变量 即在你整合两个工程之前 你的两个工程其实是用的两个独立的编解码声明引用 建议在整合到一个工程中时 编解码的引用使用同一个。
3、我使用的jrtplib 3.8,jthread 1.21版本的,也碰到了问题 不管是在6410的ce6上还是2440的ce5上 都出现同一个错误
“error:the "bind" call for the rtp socket failed”,跟踪调试也找不到原因所在 不知楼主用的什么版本。
------解决方案--------------------
1. 不传YUV数据吗?
2. 每秒2-3帧,有点夸张,摄像头每秒预览有10-15帧,
------解决方案--------------------
一秒钟保存2,3个文件不能说明什么,本来保存文件就是巨耗时的。 你确定一下你的sensor输出的fsp是多少,有没有25fps? 如果本来sensor输出的fps就低,那你改sensorformats.h里的宏一点用都没有。
你应该是ITU601的吧?如果是,你可以用示波器量camera if 的 VSYNC引脚, 看它1秒钟产生多少次脉冲,这个才是真实的fps.
------解决方案--------------------
没有搞过,友情支持一把