FFmpeg 4.3 H265 二十二.2,在网络环境RTSP中,断线下如何处理

发布于:2025-05-27 ⋅ 阅读:(27) ⋅ 点赞:(0)

0.本节内容

本节是将前面学习的 XThread 和 实际解封装的代码结合起来。

1.解封装回顾

前面我们对于一个mp4文件的第一步就是解封装。

流程如下:

    /// 1.解封装,在XDemux.h 定义Open方法,返回值就是 AVFormatContext*
    const char* in_url_400 = "./120/400_300_25.mp4";
    XDemux xdemux1;
    /// 1.1打开 解封装上下文
    AVFormatContext* inavformatContext = xdemux1.Open(in_url_400);
    /// 1.2 设置解封装上下文到 xformat.h的成员变量中的
    xdemux1.setAVFormatContext(inavformatContext);

AVFormatContext* XDemux::Open(const char* url) {

	AVFormatContext* in_avformatContext = nullptr;
	int ret = avformat_open_input(&in_avformatContext,
				url, nullptr, nullptr);

	if (ret < 0 ) {
		cout << "func XDemux::Open error because avformat_open_input error, so return nullptr" << endl;
		PrintErr(ret);
		return nullptr;
	}
	ret = avformat_find_stream_info(in_avformatContext, nullptr);
	if (ret < 0) {
		cout << "func XDemux::Open error because avformat_find_stream_info error, so return nullptr" << endl;
		avformat_close_input(&in_avformatContext);
		PrintErr(ret);
		return nullptr;
	}
	//打印输入封装信息
	av_dump_format(in_avformatContext, 0, url, 0);
	return in_avformatContext;

}

void XFormat::setAVFormatContext(AVFormatContext* avformatContext) {

	unique_lock<mutex> lock(mux_);
	//1. 清空上一次保存的 this->avformatContext_
	if (this->avformatContext_) {

		//1.1 判断是 解封装上下文,即通过avformat_open_input方法创建出来的 avformatcontext,则通过 avformat_close_input方法 释放 this->avformatContext_

		if (this->avformatContext_->iformat) {

			avformat_close_input(&this->avformatContext_);
			this->avformatContext_ = nullptr;
		}
		//1.2 判断是 封装上下文,即通过avformat_alloc_output_context2方法创建出来的 avformatcontext,则通过avformat_free_context()
		//实际 代码测试,如果this->avformatContext_中的pb是打开的,也要释放。
		else if (this->avformatContext_->oformat) {
			if (this->avformatContext_->pb) {
				avio_closep(&this->avformatContext_->pb);
			}
			avformat_free_context(this->avformatContext_);
			this->avformatContext_ = nullptr;
		}
		else {
			avformat_free_context(this->avformatContext_);
			this->avformatContext_ = nullptr;
		}
	}

	//2. 将参数传递过来的 avformatContext 保存 到内部变量
	this->avformatContext_ = avformatContext;
	//3. 注意的是,传递过来的参数 avformatContext有可能是nullptr,如果是nullptr,就是清理 保存的avformatContext_,那么到这里就return
	if (this->avformatContext_ == nullptr) {
		return;
	}
	
	// 4. 之所以前面会有return,是因为后面在 this->avformatContext 不为nullptr的情况下,还需要从 this->avformatContext_ 中记录其他参数。
	//4.1 记录 audio_index,video_index,audiostreambasetime,videostreambasetime,audiocodeid,videocodeid

	for (int i = 0; i < this->avformatContext_->nb_streams;i++) {
		if (this->avformatContext_->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_VIDEO) {
			this->video_index_ = i; //记录video_index
			this->video_codec_id_ = this->avformatContext_->streams[i]->codecpar->codec_id; //记录 videocodeid
			this->video_stream_timebase_.num = this->avformatContext_->streams[i]->time_base.num; //记录video timebase.num
			this->video_stream_timebase_.den = this->avformatContext_->streams[i]->time_base.den; //记录video timebase.den
			this->video_width_ = this->avformatContext_->streams[i]->codecpar->width;
			this->video_height_ = this->avformatContext_->streams[i]->codecpar->height;
			this->video_pixformat_ = this->avformatContext_->streams[i]->codecpar->format;
			this->video_avg_frame_rate_.num = this->avformatContext_->streams[i]->avg_frame_rate.num;
			this->video_avg_frame_rate_.den = this->avformatContext_->streams[i]->avg_frame_rate.den;

			cout << "video avg_frame_rate.num = " << this->avformatContext_->streams[i]->avg_frame_rate.num << endl; //25
			cout << "video avg_frame_rate.den = " << this->avformatContext_->streams[i]->avg_frame_rate.den << endl; //1

			// avg_frame_rate 和 r_frame_rate的不同,前者是平均 frame_rate; 后者不是,
			cout << "video r_frame_rate.num = " << this->avformatContext_->streams[i]->r_frame_rate.num << endl;//25
			cout << "video r_frame_rate.den = " << this->avformatContext_->streams[i]->r_frame_rate.den << endl;//1
			

		}
		if (this->avformatContext_->streams[i]->codecpar->codec_type == AVMEDIA_TYPE_AUDIO) {
			this->audio_index_ = i;//记录audio_index
			this->audio_codec_id_ = this->avformatContext_->streams[i]->codecpar->codec_id; //记录 audiocodeid
			this->audio_stream_timebase_.num = this->avformatContext_->streams[i]->time_base.num;//记录audio timebase.num
			this->audio_stream_timebase_.den = this->avformatContext_->streams[i]->time_base.den;//记录audio timebase.den
			this->audio_channel_layout_ = this->avformatContext_->streams[i]->codecpar->channel_layout;//AV_CH_LAYOUT_STEREO
			this->audio_sample_rate_ = this->avformatContext_->streams[i]->codecpar->format;//AV_SAMPLE_FMT_S16
			this->audio_channels_ = this->avformatContext_->streams[i]->codecpar->channels;//2
			this->audio_sample_rate_ = this->avformatContext_->streams[i]->codecpar->sample_rate;//44100
			///channels 和 channel_layout这两个参数再ffmpeg7.0都已经删除了,在4.3上可以通过如下的函数转化 

			/// int av_get_channel_layout_nb_channels(uint64_t channel_layout);
			/// int64_t av_get_default_channel_layout(int nb_channels);
			/// 
			cout << "audio avg_frame_rate.num = " << this->avformatContext_->streams[i]->avg_frame_rate.num << endl; //0
			cout << "audio avg_frame_rate.den = " << this->avformatContext_->streams[i]->avg_frame_rate.den << endl; //0
			cout << "audio r_frame_rate.num = " << this->avformatContext_->streams[i]->r_frame_rate.num << endl; //0
			cout << "audio r_frame_rate.den = " << this->avformatContext_->streams[i]->r_frame_rate.den << endl; //0

		}
	}
}

内部实现的核心函数如下:

int avformat_open_input(AVFormatContext **ps, const char *url, ff_const59 AVInputFormat *fmt, AVDictionary **options);

url参数不仅仅指本地文件,也可以是网络文件。本节主要是对于 监控摄像头 使用 RTSP 协议时候的处理问题 学习。

FFmpeg 4.3 H265 二十二.3,avformat_open_input 支持打开的协议-CSDN博客

2. 那么我们首先要将前面的 url 改成 rtsp监控摄像头 的url.

之前的 url 是 本地文件下的一个MP4

const char* in_url_400 = "./120/400_300_25.mp4";

我们当前是使用笔记本摄像头,通过VLC转换成 RTSP协议的数据。

对应的url 要换成 

const char* in_url_400 = "rtsp://:8554/111";

FFmpeg 4.3 H265 二十二.4,使用计算机摄像头,通过VCL软件, 模拟 监控摄像头 的 RTSP 流-CSDN博客

3.监控摄像头RTSP解封装的线程问题:

3.1 断线问题--程序启动的时候,监控摄像头就没有打开

3.2 断线问题--程序在执行的时候,网络信号不好,甚至是网络断开了

3.3 断线问题--程序在执行的时候,监控摄像头断开了

av_dict_set("&options","stimeout","1000000",0);//这个timecout是对于 socket 本身的设定。对于不同的平台这个参数 并不可靠,代码兼容性不强,因此此行代码不能解决核心问题,应该想其他方法。

实际上AVFormatContext 结构体中,给我们提供概率 AVIOInterruptCB 这个回调结构体:

    /**
     * Custom interrupt callbacks for the I/O layer.
     *
     * demuxing: set by the user before avformat_open_input().
     * muxing: set by the user before avformat_write_header()
     * (mainly useful for AVFMT_NOFILE formats). The callback
     * should also be passed to avio_open2() if it's used to
     * open the file.
     */
    AVIOInterruptCB interrupt_callback;

/**
 * Callback for checking whether to abort blocking functions.
 * AVERROR_EXIT is returned in this case by the interrupted
 * function. During blocking operations, callback is called with
 * opaque as parameter. If the callback returns 1, the
 * blocking operation will be aborted.
 *
 * No members can be added to this struct without a major bump, if
 * new elements have been added after this struct in AVFormatContext
 * or AVIOContext.
 */
typedef struct AVIOInterruptCB {
    int (*callback)(void*);
    void *opaque;
} AVIOInterruptCB;

其中 callback 是中断的回调函数, opaque是回调函数的参数。

调用时机:

在读取数据的时候,或者是在connect 建立连接的时候,每次等待都会调用 callback函数。

如何控制,我们使用callback的返回值来控制。

如果callback函数 。return 0,则 读取数据的函数会继续等待,这个读取数据的函数应该就是int av_read_frame(AVFormatContext *s, AVPacket *pkt)。如果 return 1,那么读取数据的函数就会退出,不会一直阻塞。 

如果我们设定了 avformatContext 的AVIOInterruptCB 


网站公告

今日签到

点亮在社区的每一天
去签到