ffmpeg之ffplay源码简要分析(代码片段)

落樱弥城 落樱弥城     2022-12-13     210

关键词:

1 ffplay 基本架构

1.1 视频解码播放的基本流程

  ffmpeg视频解码播放的基本流程如下图所示:

  1. 首先对网络媒体数据流进行解封装得到一般的视频封装格式比如MP4等,如果是本地播放的媒体文件就不需要解协议;
  2. 然后对视频媒体文件进行解封装,得到未经过解码的视频、音频或者字幕流数据,在ffmpeg中得到的是AVPacket
  3. 然后分别对字幕、音频和视频数据进行解码,分别得到字幕、PCM数据和YUV数据;
  4. 由于不同数据体积不同解码速度不同,视频解码相对比较慢,如果解码完就立马播放就会出现音频和视频播放不一致的情况因此需要进行音画同步;
  5. 最后将音频视频数据分别输出到对应的设备完成播放。

  ffplay是使用SDL(一种跨平台的音视频播放框架)进行具体平台的音视频播放,其使用方式和windows的API很像,比如创建窗口、打开音频输出、处理事件循环等。我们不用太关注于该框架的具体细节,大部分情况下根据函数或者变量名称就能判断涉及SDL的相关内容的含义。
  ffplay内部使用多个线程完成音视频的解复用和解码过程,保证不同数据解码直接互不干扰。

1.2 ffplay的基本代码框架

  上图是ffplay的基本框架图,ffplay处理音频的基本流程是创建三个线程分别解封装

  • ffplay中参数传递使用一个VideoState传递,其中包含了各个部分运行时所需要的所有参数,比较庞大;
  • event_loop主要处理用户输入事件,比如切换显示模式,调整音量大小,控制播放seek等操作;
  • video_refresh是真正刷新视频画面的函数。
  • stream_open中初始化需要使用的队列、clock以及相关参数,并创建相关的线程比如音视频解复用线程、音视频解码线程。

2 ffplay中使用到的数据结构

2.1 AVPacket队列

//avpackt的队列节点,serial表示当前packet的序号
typedef struct MyAVPacketList 
    AVPacket *pkt;
    int serial;
 MyAVPacketList;

//avpacket的队列的head节点,也就是说PacketQueue是一个带有头结点的队列,该头结点中定义了一些队列相关的metadata以及队列使用到的锁和条件变量(保证队列的线程安全)
typedef struct PacketQueue 
    AVFifoBuffer *pkt_list;         //ffmpeg实现的FIFO缓冲区
    int nb_packets;                 //当前队列中avpcket的数量
    int size;                       //队列中所有数据的总字节数
    int64_t duration;               //队列所有及诶大的时长之和
    int abort_request;              //是否终止对队列的操作,用于安全快速的退出
    int serial;                     //序列号
    SDL_mutex *mutex;               //保证线程安全额锁
    SDL_cond *cond;                 //读写的条件变量
 PacketQueue;

PacketQueue是一个线程安全FIFO队列,数据节点是MyAVPacketList,内部使用AVFifoBuffer实现数据的存取, abort_request控制队列的状态,muxte,cond进行同步和临界区保护。下面是PacketQueue一系列的操作api:

  • packet_queue_put_private:队列添加packet的具体实现,基本逻辑为检查队列的大小如果不足则扩张,扩张的规则比较简单就是增加一个packet的大小,然后将packet写入到队列中;
  • packet_queue_put:写入一个packet,会对packet进行复制,实际上写入的是实现是packet_queue_put_private
  • packet_queue_put_nullpacket:写入一个空packet,具体是调用packet_queue_put实现,那和普通包有何区别,怀疑是为了保障代码的兼容性,因为旧的api就是构造一个空包写入;
  • packet_queue_init:初始化队列,设置关于队列的一些状态信息、锁和信号量;
  • packet_queue_flush:刷新队列,将队列中的数据读取并free,并设置相关的状态到初始状态;
  • packet_queue_destroy:销毁队列,主要是刷新队列并销毁锁和信号量;
  • packet_queue_abort:暂停队列,即设置abort_request
  • packet_queue_start:开始队列,清除标志位abort_request并自增serial
  • packet_queue_get:从队列中取出一个packet。

  队列的实现是一个普通的队列,需要注意的细节就是serial的更新时机,在放入同一个队列时队列会将自己的serial号赋值给对应的packet包,并且只有触发packet_queue_startpacket_queue_flush两个事件时才会更新serialserial能够用来区分不同时刻解封装得到的packet是不是连续的包,如果播放时突然暂停,再resume的话serial更新,上一个packet和下一个packet就不是连续的。

static int packet_queue_put_private(PacketQueue *q, AVPacket *pkt)
    MyAVPacketList pkt1;
    //...
    pkt1.serial = q->serial;
    //...


static void packet_queue_start(PacketQueue *q)
    //...
    q->serial++;
    //...


static void packet_queue_flush(PacketQueue *q)
    MyAVPacketList pkt1;
    //...
    q->serial++;
    //...

2.2 AVFrame队列

//解码出来的avframe数据存储节点
typedef struct Frame 
    AVFrame *frame;         //解码的音频或者视频数据
    AVSubtitle sub;         //解码的字母数据
    int serial;
    double pts;           /* presentation timestamp for the frame */
    double duration;      /* estimated duration of the frame */
    int64_t pos;          /* byte position of the frame in the input file */
    int width;
    int height;
    int format;
    AVRational sar;         //采样宽高比
    int uploaded;           //当前帧是否已经已经上屏,若果已经上屏则不会再刷新
    int flip_v;             //控制是否垂直翻转
 Frame;

//avframe队列的head节点
typedef struct FrameQueue 
    Frame queue[FRAME_QUEUE_SIZE];      //固定队列,环形缓冲区
    int rindex;                         //读索引,队头
    int windex;                         //写索引,队尾
    int size;                           //当前队列中节点个数
    int max_size;                       //最大允许存储的节点个数,方便区分是否full
    int keep_last;                      //是否要保留最后一个读节点,1的话最后一个节点就不会被覆盖
    int rindex_shown;                   //当前节点是否已经显示
    SDL_mutex *mutex;                   //锁
    SDL_cond *cond;                     //条件变量
    PacketQueue *pktq;                  //关联的packet队列
 FrameQueue;

  Frame是同时能够表示音频、视频、字母的大杂烩,同时包含了一些状态信息来表示当前Frame的具体状态。FrameQueue是使用存储Frame节点的线程安全队列,该线程安全队列并没有类似PacketQueue使用AVFifoBuffer实现,而是用栈上的数组实现线程安全的环形队列。FrameQueue的实现一切未高效率让路,一方面使用静态数组(最大不超过16个节点)不用考虑动态内存的问题,减少比不要的内存操作的小号,另一方面队列的lock力度比较小,针对rindex和wrindx都未进行加锁,因为程序能够保证两个线程独立的更新和读取对应的值。

FrameQueue的一些操作函数:

  • frame_queue_init:初始化avframe队列,实现很简单主要是初始化队列的内存和metadata以及锁等,另外初始化的时候会使用av_frame_alloc提前分配好对应的frame的内存;
  • frame_queue_unref_item:销毁Frame节点中的数据;
  • frame_queue_destory:销毁队列,主要工作是销毁frame以及销毁锁以及条件变量
  • frame_queue_signal:线程安全的发送signal;
  • frame_queue_peek:根据当前的读索引获取一个frame,rindex_shown的作用是如果当前节点已经被读取则跳过读取下一个;
  • frame_queue_peek_next:相比于frame_queue_peek,读取下一个节点的数据;
  • frame_queue_peek_last:返回rindex指向的节点,无论是否被读取过;
  • frame_queue_peek_writable:检查当前队列的wrindex指向的内存是否可写,如果可写则获取对应数据的指针,如果不可写的阻塞wait,否则返回对应节点的指针;
  • frame_queue_peek_readable:逻辑和frame_queue_peek_writable类似,检查队列是否为空,空则wait;否则返回可读的frame的指针;
  • frame_queue_push:仅仅更新windex和size,因为再使用frame_queue_peek_writable时节点的指针已经移交用户,用户需要将数据存储到其中,这里只需要更新索引即可;
  • frame_queue_next:逻辑与frame_queue_push类似,只更新索引;
  • frame_queue_nb_remaining:返回当前队列中尚未显示的节点的数量;
  • frame_queue_last_pos:获取上一次显示的位置。

2.3 时钟

  ffplay中有三种时钟,音频,视频和系统外部时钟,主要用于音画同步。

typedef struct Clock 
    double pts;             // 当前帧(待播放)显示时间戳,播放后,当前帧变成上一帧
    //c->pts_drift = c->pts - time;
    double pts_drift;       /* clock base minus time at which we updated the clock */
    double last_updated;    // 当前时钟(如视频时钟)最后一次更新时间,也可称当前时钟时间
    double speed;           // 时钟速度控制,用于控制播放速度
    int serial;             // 播放序列,所谓播放序列就是一段连续的播放动作,一个seek操作会启动一段新的播放序列
    int paused;             // 暂停标志
    int *queue_serial;      /* pointer to the current packet queue serial, used for obsolete clock detection */
 Clock;
  • set_clock_at:设置clock的基本参数;
  • set_clock:设置clock的pts和serial;
  • set_clock_speed:设置speed;
  • init_clock:初始化clock。
  • get_clock:获取当前的时间,如果暂停状态则返回的是pts,播放状态则返回的是pts_drift + time - (time - last_updated) * (1 - speed)(time是系统时间);
  • get_master_sync_type:获取当前的同步类型;
  • get_master_clock:获取主同步的时钟的时间;
  • check_external_clock_speed:检查并设置外部时钟的speed,会根据预定的参数和当前时钟的参数设置。
  • sync_clock_to_slave:将同步的主时钟同步到slave时钟上。

2.4 参数

  音频的参数。

typedef struct AudioParams 
    int freq;
    int channels;
    int64_t channel_layout;
    enum AVSampleFormat fmt;
    int frame_size;
    int bytes_per_sec;
 AudioParams;

3 ffplay基本实现

  ffplay的基本流程上面已经能够看到,下面主要描述一些实现细节。ffplay中我们主要关注stream_openvideo_fresh两个函数,这两个函数是主要的线程创建入口和刷新视频的入口。
  stream_open中申请VideoState结构体的内存,初始化相关的参数,初始化音频、视频和字幕的AVPacket的队列以及对应的AVFrame的队列,和视频、音频、外部时钟,并将一些参数合法化比如音量限制在0-100之间,最后开启read_thread线程。

3.1 read_thread线程

  read_thread是ffplay的解复用线程,其基本流程很简单就是我们使用ffmpeg时解复用的基本流程:打开媒体文件AVFormatContext→设置AVFormatContext解复用的参数→查找媒体文件中的媒体流(音频、视频和字幕)→寻找每个流对应的流的索引→打开音频、视频和字幕流对应的解码线程→然后便是循环利用av_read_frame解复用读取AVPacket

//去除一些细节的主流程
avfomat_alloc_context();
avformat_open_input();
av_dict_set();
avformat_find_stream_info();
avformat_seek_file();
//for search
//得到音频、字幕、视频的索引
av_find_best_stream();
//打开音频、视频、字幕的解码线程
stream_component_open();
for(;;)
    av_read_frame();
    if(isseek)
        avformat_seek_file();
    
    packet_queue_put();

  在搜索媒体流对应的流时,首先通过for循环AVFormatContext中的所有流找到对应的流的第一个流的索引,然后使用av_find_best_stream确定最终的流的索引。av_find_best_stream中的实现也是通过遍历媒体中的流寻找对应的流的索引,ffplay实现中第一次手动搜寻是期望期望一个参考索引,然后将该参考索引传递给av_find_best_stream寻找最佳的流。ffmpeg中最佳流是根据各种启发式确定的最有可能是用户期望的,并尝试找到对应的流的最佳的解码器,一般都会返回用户指定的流的索引。
  解复用线程主循环主要就是读取一帧的处理seek事件将一帧的packet入队。seek的基本逻辑是如果当前状态是播放状态就正常seek然后清空队列,如果是暂停状态seek完不仅仅要清空队列还会显示刷新一帧的画面(具体的步骤是先恢复播放状态播放一帧再暂停),同步外部时钟,不然seek完画面还是seek前的画面。在解复用时会控制队列的大小,如果队列已经full则会阻塞10ms。在解复用入队是会计算当前packet的时间是否在播放范围内,如果不在则跳过。在read_thread主循环中会控制seek,退出、循环播放逻辑。

stream_start_time = ic->streams[pkt->stream_index]->start_time;
pkt_ts = pkt->pts == AV_NOPTS_VALUE ? pkt->dts : pkt->pts;
pkt_in_play_range = duration == AV_NOPTS_VALUE || (pkt_ts - (stream_start_time != AV_NOPTS_VALUE ? stream_start_time : 0)) * av_q2d(ic->streams[pkt->stream_index]->time_base) - (double)(start_time != AV_NOPTS_VALUE ? start_time : 0) / 1000000 <= ((double)duration / 1000000);
//下面是网络上找的解析函数功能和上面的代码相同相对俩说要清晰很多
int64_t get_stream_start_time(AVFormatContext* ic, int index) 
    int64_t stream_start_time = ic->streams[index]->start_time;
    return stream_start_time != AV_NOPTS_VALUE ? stream_start_time : 0;


int64_t get_pkt_ts(AVPacket* pkt) //ts: timestamp(时间戳)的缩写
    return pkt->pts == AV_NOPTS_VALUE ? pkt->dts : pkt->pts;


double ts_as_second(int64_t ts,AVFormatContext* ic,int index) 
    return ts * av_q2d(ic->streams[index]->time_base);
 

double get_ic_start_time(AVFormatContext* ic) //ic中的时间单位是us
    return (start_time != AV_NOPTS_VALUE ? start_time : 0) / 1000000;

int is_pkt_in_play_range(AVFormatContext* ic, AVPacket* pkt) 
    if (duration == AV_NOPTS_VALUE) //如果当前流无法计算总时长,按无限时长处理
        return 1;

    //计算pkt相对stream位置
    int64_t stream_ts = get_pkt_ts(pkt) - get_stream_start_time(ic, pkt->stream_index);
    double stream_ts_s = ts_as_second(stream_ts, ic, pkt->stream_index);

    //计算pkt相对ic位置
    double ic_ts = stream_ts_s - get_ic_start_time(ic);

    //是否在时间范围内,duration是一个全局变量
    return ic_ts <= ((double)duration / 1000000);

  read_thread中是通过stream_component_open打开三个流的解码线程,其基本流程:创建解码器上下文环境→查找解码器→打开解码器→初始化Decoder打开对应的解码线程。在打开解码器时会将解码器相关的参数同步到VideoState中,decoder_init就是简单的更新VideoStateDecoder中的参数,decoder_start会针对三个流分别调用分别创建audio_threadvideo_threadsubtitle_thread线程。

//去除一些细节的主流程
    avcodec_alloc_context3();
    avcodec_parameters_to_context();
    avcodec_find_decoder();
    avcodec_open2();
    //打开三个流的解码线程
    decoder_init();
    decoder_start()

3.2 流解码线程

  流解码线程就是上面提到的audio_threadvideo_threadsubtitle_thread三个线程。

video_thread
  video_thread解码线程的基本流程很简单,取帧使用get_video_frame,帧的入队使用queue_picture该函数的实现很简单就是将frame入队并设置相关的参数调整窗口大小。

AVFrame *frame = av_frame_alloc();
for(;;)
    ret = get_video_frame(is, frame);
    //滤镜处理
    duration = (frame_rate.num && frame_rate.den ? av_q2d((AVRational)frame_rate.den, frame_rate.num) : 0);
    pts = (frame->pts == AV_NOPTS_VALUE) ? NAN : frame->pts * av_q2d(tb);
    ret = queue_picture(is, frame, pts, duration, frame->pkt_pos, is->viddec.pkt_serial);
    av_frame_unref(frame);


av_frame_free(&frame);

  get_video_frame取帧的函数实际实现是decoder_decode_frame,取帧后会进行丢帧的处理,这个后面描述。另外视频、音频和字幕都是使用这个函数解码帧。

decoder_decode_frame
//丢帧逻辑,暂时省略

audio_thread
  audio_thread的基本逻辑和video基本相同,只是帧入队的参数设置比较简单。取帧的具体实现同样使用get_video_frame函数。

//设置队列节点的metadata并将解码出的avframe写入队列中
af->pts = (frame->pts == AV_NOPTS_VALUE) ? NAN : frame->pts * av_q2d(tb);
af->pos = frame->pkt_pos;
af->serial = is->auddec.pkt_serial;
af->duration = av_q2d((AVRational)frame->nb_samples, frame->sample_rate);

av_frame_move_ref(af->frame, frame);
frame_queue_push(&is->sampq);

subtitle_thread
  subtitle_thread更简单,基本流程和video_thread相同,唯一的区别是不需要管理AVFrame的内存,原因是Frame中使用的是AVSubtitle变量而不是指针,大概是字母数据占用的内存比较小的缘故。

sp->pts = pts;
sp->serial = is->subdec.pkt_serial;
sp->width = is->subdec.avctx->width;
sp->height = is->subdec.avctx->height;
sp->uploaded = 0;

decoder_decode_frame
  视频、音频和字幕流的解码都是复用的这个逻辑,其中基本框架相同,音频和视频的区别是设定pts的方式不同,而字幕是使用avcodec_decode_subtile2这个函数进行解码。该函数实现的基本框架是两个while循环,首先是取帧的函数调用,第二个循环用来从队列中取出一个packet并保证当前packet和当前播放的序列相同,防止不同序列的serail混杂。最后是将packet送到解码器中。

for(;;)
    if (d->queue->serial == d->pkt_serial) 
        do
            //暂停等逻辑的控制
            avcodec_receive_frame()
            //设定对应帧的pts
        while (ret != AVERROR(EAGAIN));  
        do
            packet_queue_get()
            if (old_serial != d->pkt_serial) 
                avcodec_flush_buffers(d->avctx);
            

            if (d->queue->serial == d->pkt_serial)
                break;
        while(1);

         if (d->avctx->codec_type == AVMEDIA_TYPE_SUBTITLE) 
             avcodec_decode_subtitle2()
         else
             avcodec_send_packet()
         
    

3.3 画面刷新

  

3.3.1 video_refresh

  视频画面的刷新视频画面,下面的图是刷新视频画面的大致流程图,图中省略了显示结束后的更新clock的描述。

  在刷新视频时,会从frame队列中取出两帧画面lastvpvp对比两帧的serail是否相同,不相同则回到开头直到取出相同serial的帧。然后就是计算上一帧画面显示了多长时间,如果并未显示足够则继续显示否则取出下一帧。这里计算两帧之间的显示时差是通过vp_duration计算,其实现就是两个针对的pts的差值,得到两帧的显示差值后会根据传入的remaining_time计算出新的remaing_time。传入的remaining_time除了第一次调用使用的默认值0.01,后面都是上一次画面刷新计算出来的值。

 /* compute nominal last_duration */
last_duration = vp_duration(is, lastvp, vp);
delay = compute_target_delay(last_duration, is);

time= av_gettime_relative()/1000000.0;
if (time < is->frame_timer + delay) 
    *remaining_time = FFMIN(is->frame_timer + delay - time, *remaining_time);
    goto display;

  在决定好要显示当前帧后则需要更新当前显示帧的timer,能够看到frame_timer就是每一帧显示的真实时刻值。

is->frame_timer += delay;
if (delay > 0 && time - is->frame_timer > AV_SYNC_THRESHOLD_MAX)
    is->frame_timer = time;

  video_refresh中还会进行字幕的显示处理,字幕的显示处理相比视频简单很多主要就是检查序列号是否相同,还会检查当前显示的字幕的pts和视频的pts是否满足条件丢帧的条件,如果满足则会将字幕区域清空。下面是判断清空字幕显示区域的判断条件,sp是当前帧字幕,sp2是上一帧字幕。

 if (sp->serial != is->subtitleq.serial
|| (is->vidclk.pts > (sp->pts + ((float) sp->sub.end_display_time / 1000)))
|| (sp2 && is->vidclk.pts > (sp2->pts + ((float) sp2->sub.start_display_time / 1000))))

  video_display是显示视频画面的接口,在显示视频画面时会调用video_image_display函数显示一帧的画面。video_image_display会显示字幕帧以及调用upload_texture显示视频画面,upload_texture中会调用sws_scale对画面进行缩放然后上屏。

sp = frame_queue_peek(&is->subpq);
//如果字幕显示的时间未过时则显示
if (vp->pts >= sp->pts + ((float) sp->sub.start_display_time / 1000)) 

3.3.2 播放音频

  ffplay中打开SDL音频是在audio_open中,该函数在创建解码线程前被调用。sdl_audio_callback是sdl取帧缓冲的回调函数,该函数中就是将不断从audio_buf(VideoState维护的一个缓冲)获取数据,然后拷贝到SDL的缓冲中。如果audio_buf中没有数据则会调用audio_decode_frame从帧队列中取出数据。该数据除了会同步pts外还会根据目标的音频的参数将取出的音频数据进行swr_convert重采样。

//更新音频的clock
audio_clock0 = is->audio_clock;
/* update the audio clock with the pts */
if (!isnan(af->pts))
    is->audio_clock = af->pts + (double) af->frame->nb_samples / af->frame->sample_rate;
else
    is->audio_clock = NAN;
is->audio_clock_serial = af->serial;

3.4 音画同步

  不同的数据解码的数据不同为了保证能够按照视频的参数显示图像因此需要进行同步。既然是同步,那就会有同步的对象,向谁同步,因此就有三种同步对象音频、视频和外部时钟(ffplay默认是同步音频)。

enum 
    AV_SYNC_AUDIO_MASTER, /* default choice */
    AV_SYNC_VIDEO_MASTER,
    AV_SYNC_EXTERNAL_CLOCK, /* synchronize to an external clock */
;

3.4.1 视频同步音频

  视频的丢帧逻辑在video_refresh中,下面是其中关于音画同步的代码的详细注释。视频同步其他时钟的基本思路是当视频相比其他时钟慢时则丢帧加快播放,如果视频较快则等待。

//省略部分代码
/* called to display each frame */
//如果当前帧的serial和上一帧的serial不同则更新frame_timer
if (lastvp->serial != vp->serial)
    is->frame_timer = av_gettime_relative() / 1000000.0;

/* compute nominal last_duration */
//计算上一帧持续的时间
last_duration = vp_duration(is, lastvp, vp);
//计算上一帧真正的持续时间
delay = compute_target_delay(last_duration, is);
//获取系统时刻
time= av_gettime_relative()/1000000.0;
//如果系统时刻小于当前播放序列的frame_timer+delay。即上一帧并未显示够时长,则更新remaing_time直接显示当前帧
if (time < is->frame_timer + delay) 
    *remaining_time = FFMIN(is->frame_timer + delay - time, *remaining_time);
    goto display;


//上一帧已经结束,更新当前帧的frame_timer
is->frame_timer += delay;
//如果系统的时钟和当前帧的时钟偏差过大则更新frame_timer,AV_SYNC_THRESHOLD_MAX为0.1
if (delay > 0 查看详情  

ffmpeg中关于ffplay部分的概要分析-1

ffplay是ffmpeg中的一个播放音视频流的功能,现简要对其进行分析:1.图1是ffplay的主干代码流程1)在stream_open函数之前,主要是对入参的一些分析,所有codec,demux以及相关protocool的注册  注册两个信号量:一个是给中断使用,... 查看详情

ffmpeg源码分析与命令实战和代码实战(代码片段)

FFmpeg源码分析前言FFMPEG是一款特别强大专门用于处理音视频的开源库。你即可以使用它的API对音视频进行处理,也可以使用它提供的工具,如ffmpeg,ffplay,ffprobe,来编剧你的音视频文件。以及在直播中推流/拉流的相关处理&#x... 查看详情

ffplay.c函数结构简单分析(绘图)

近期重温了一下FFplay的源码。FFplay是FFmpeg项目提供的播放器演示样例。虽然FFplay不过一个简单的播放器演示样例,它的源码的量也是不少的。之前看代码,主要是集中于某一个“点”进行研究,而没有从整体结构上进行分析。本... 查看详情

ffplay视频滤镜分析(代码片段)

...#34;drawtext=fontsize=200:fontfile=FreeSerif.ttf:text='FFmpeg':x=150:y=100"\\-vf"drawtext=fontsize=200:fontfile=FreeSerif.ttf:text='Principle':x=150:y=100"\\-ijuren.mp4#windows命令ffplay.exe-x400^-vf"drawtext=fonts... 查看详情

ffmpeg使用ffplay进行hls拉流分析1

ffmpeg使用ffplay进行hls拉流分析1从使用ffplay调用http://192.168.1.100:8080/live/livestream.m3u8开始,进入到ffmpeg的分析使用的协议选择相应的解复用器的步骤。其他协议或者文件方式的使用ffplay也是这个步骤流程的。目录:一、流程... 查看详情

ffmpeg播放器实现详解-音频播放(代码片段)

ffplay是ffmpeg源码中一个自带的开源播放器实例,同时支持本地视频文件的播放以及在线流媒体播放,功能非常强大。FFplay:FFplayisaverysimpleandportablemediaplayerusingtheFFmpeglibrariesandtheSDLlibrary.ItismostlyusedasatestbedforthevariousFFmpegAPIs.ffpla 查看详情

windows10平台编译ffmpeg4.0.2,生成ffplay(代码片段)

Windows10平台编译ffmpeg4.0.2,生成ffplay最近想研究下ffplay的代码,学习代码是枯燥无味的,也是抽象的,学习一个系统或者软件之前,好的入门方法是先把系统搭建起来,或者把软件编译出来,直观的操作一下相关的功能,由表入... 查看详情

音视频开发之旅(61)-分析ffmpeg(解码部分的)常用结构体(代码片段)

上一篇我们分析了解封装部分的常用结构体,这篇我们来学习分析解码部分的常用结构体。目录断点分析ffplay解码流程及关键结构体(解码部分)常用结构体以及之间的关系分析资料收获一、断点分析ffplay解码流程及... 查看详情

ffmpeg使用ffplay进行hls拉流分析(未完)

ffmpeg使用ffplay进行hls拉流分析(未完)流程图: 查看详情

音视频学习之ffplay基础命令整理(代码片段)

1ffplay简介ffplay是FFmpeg提供的一个极为简单的音视频媒体播放器(由ffmpeg库和SDL库开发),可以用于音视频播放、可视化分析,提供音视频显示和播放相关的图像信息、音频的波形等信息,也可以用作FFmpegAPI的... 查看详情

javacv开发详解之24:使用javacv保存raw视频像素格式(yuv或者rgb),并使用ffplay播放raw(代码片段)

...也必须指定准确的视频参数才能正确解码数据。参考资料ffmpeg官方说明:https://ffmpeg.org/ffmpeg-formats.html#rawvideo功能设计以grb24为 查看详情

扩散模型(diffusionmodel)简要介绍与源码分析(代码片段)

扩散模型(DiffusionModel)简要介绍与源码分析前言近期同事分享了DiffusionModel,这才发现生成模型的发展已经到了如此惊人的地步,OpenAI推出的Dall-E2可以根据文本描述生成极为逼真的图像,质量之高直让人惊呼哇塞.今早公众号给我推送... 查看详情

音视频技术之ffplay源码分析-音视频同步(代码片段)

音视频同步的目的是为了使播放的声音和显示的画面保持一致。视频按帧播放,图像显示设备每次显示一帧画面,视频播放速度由帧率确定,帧率指示每秒显示多少帧;音频按采样点播放,声音播放设备每次... 查看详情

音视频开发之旅(60)-调试分析ffmpeg(解封装部分的)常用结构体(代码片段)

...调试,对我们梳理流程排查问题十分重要,可以ffmpeg的调试可以在XCode、VScode以及QT等ide上进行方便的调试分析。本篇我们以XCode为例来先介绍下ffplay的断点调试,以ffmpe 查看详情

androiddebuggerd简要介绍和源码分析(转载)(代码片段)

...以android4.1为基础,分析debuggerd这个工具的使用方法和源码。1.Debuggerd简介debuggerd是一个daemon进程,在系统启动时随着init进程启动。主要负责将进程运行时的信息dump到文件或者控制台中。1.1debuggerd的运行原理创建一个名为... 查看详情

ffmpeg源码分析通过ffmpeg截图命令分析ffmpeg.c源码流程(代码片段)

环境搭建Ubuntu20.04开启外设摄像头截图命令:ffmpeg-fvideo4linux2-s640x480-i/dev/video0-ss0:0:2-frames1/data/ffmpeg-4.2.7/exe_cmd/tmp/out2.jpg参数解析intmain(intargc,char**argv).................................;#ifCONFIG_AVDEVICEavdevice_register_all();#endifavformat_network_init();s... 查看详情

elasticsearch之client源码简要分析

问题让我们带着问题去学习,效率会更高1 es集群只配置一个节点,client是否能够自动发现集群中的所有节点?是如何发现的?2 esclient如何做到负载均衡?3 一个esnode挂掉之后,esclient如何摘掉该节点?4 esclientnode... 查看详情