上篇已经介绍了如何从视音频采集设备获取数据,并且编码、保存文件到本地。但是,有些应用并不是把流保存成文件,而是需要发送到网络的,比如现在很典型的一种应用场景:把流推送到RTSP、RTMP、HLS服务器,由服务器转发给其他用户观看。很多开发者也是调用FFmpeg API来实现推流的,用FFmpeg 做一个推流器很简单,调用流程跟输出文件的基本相同,基于前面博文的例子稍微修改就可以做出一个采集+编码+推流的软件。这里,我先假设读者已经会用FFmpeg API保存或录制文件,但没有实现过推流功能,我将给大家说一下做推流跟录制文件的区别,还有说一下要注意的几个问题,希望能帮助大家在开发推流功能时减少一些问题的出现。
首先,做推流和录制文件都需要调用到封装器对象的接口,我们需要定义一个封装器(或叫混合器):
AVFormatContext* m_outputAVFormatCxt;
创建封装器对象,根据输入的协议类型生成对应的封装器。
比如,对于RTSP,我们生成如下的推流封装器:
res = avformat_alloc_output_context2(&m_outputAVFormatCxt, NULL, "rtsp", m_outputUrl.c_str());
对于RTMP,生成封装器的代码如下:
res = avformat_alloc_output_context2(&m_outputAVFormatCxt, NULL, "flv", m_outputUrl.c_str());
其中,上面的m_outputUrl是推流地址。
然后,向封装器添加要发送的流(视频、音频),设置每个流的属性。假如我们要推送的流来源于一个文件,那就要先把文件的流枚举出来,获得每个流的信息,然后把这几个流“插入”到封装器里面,这样封装器才能识别这些流的格式。下面是从文件提取流的信息并添加到封装器的代码:
我们调用avformat_new_stream生成一个新的流,然后调用avcodec_copy_context将文件的视频流或音频流的上下文属性拷贝到新流的目标上下文中,这样新的流就具有了和输入流同样的属性了(编码格式、分辨率、采样率等)。
发送数据到网络可能因为网络阻塞而发送超时,超时有可能发生在连接或中间数据传输的时候,如果连接超时,用户程序就会很久阻塞在连接函数里。解决这个问题的方法是:我们设置一个回调函数,FFmpeg在发送数据或连接超时会调用到该回调,如果超过某个时间,我们在回调里返回某个标志,让IO函数马上返回,用户的程序就不会一直卡在IO函数里。设置回调函数的代码如下:
用户定义的回调函数如下所示:
相关视频推荐
【文章福利】需要C/C++ Linux服务器架构师及音视频学习资料加群812855908(资料包括C/C++,Linux,golang技术,内核,Nginx,ZeroMQ,MySQL,Redis,fastdfs,MongoDB,ZK,流媒体,音视频,CDN,P2P,K8S,Docker,TCP/IP,协程,DPDK,ffmpeg,大厂面试题 等)
接着,就开始连接服务器,并与服务器进行握手交互。
如果执行到这一步而没有错误,表示已经成功连接服务器,并可以向服务器推流了。
而发送数据就简单了,流程跟输出文件的一样。我们调用av_interleaved_write_frame 函数往封装器写入一个帧,让封装器打包数据和发送到服务器。但是,有个地方要注意,就是从文件读出来的帧(输入帧)的时间戳要转换为封装器对应输出流的时基。比如对于视频流,我们需要这样处理:
推流完毕,我们要关闭推流器,其实是关闭封装器对象,我们一般会这样关闭:
但是这样写还不完善。经测试,如果前面的连接握手失败了,则强行调用av_write_trailer会出错的。所以,还需要加个标志变量判断一下连接是否已经初始化成功(我用布尔变量m_bInited表示),修改后的代码如下: