Ubuntu 编译SRS和ZLMediaKit用于视频推拉流

news2025/7/15 18:13:53

SRS实现视频的rtmp webrtc推流

ZLMediaKit编译生成MediaServer实现rtsp推流

SRS指定某个固定网卡,修改程序后重新编译

打开SRS-4.0.0/trunk/src/app/srs_app_rtc_server.cpp,在 232 行后面添加:

ZLMediaKit编译后文件存放在ZLMediakit/release/linux/Debug/下,需要在执行文件目录放一个auth.json文件,存放rtsp使用用户名admin和密码admin(MD5加密),文件内容:

{
    "auth": [
        {
            "passwd": "21232F297A57A5A743894A0E4A801FC3",
            "username": "admin"
        }
    ]
}

使用FFMPEG实现获取摄像头数据,压缩,推流过程。

FFMPEG编译带webrtc功能:sudo ./configure --enable-libx264 --enable-gpl --enable-nvmpi --enable-shared --prefix=/usr/local/ffmpeg_webrtc

具体程序如下:

FFmpegEncode.h

#ifndef ffmpeg_encode_hpp
#define ffmpeg_encode_hpp

#include <iostream>
#include <opencv2/opencv.hpp>
#include <boost/thread.hpp>
#include <boost/smart_ptr.hpp>
#include <boost/bind.hpp>
#include <vector>
#include <map>
#include <stdio.h>
#include <string>
#include <utility>

extern "C" {
#include <stdlib.h>
#include <stdio.h>
#include <string.h>
#include <math.h>

#include <libavutil/avassert.h>
#include <libavutil/channel_layout.h>
#include <libavutil/opt.h>
#include <libavutil/mathematics.h>
#include <libavutil/timestamp.h>
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#include <libswresample/swresample.h>

#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#include <libavutil/imgutils.h>
#include <libavutil/opt.h>
#include <libavutil/mathematics.h>
#include <libavutil/samplefmt.h>

#include <libavutil/time.h>
#include <libavdevice/avdevice.h>
}


#include <thread>

class FFmpegEncode
{
public:
    FFmpegEncode();
    ~FFmpegEncode();

    int open_output(std::string path, std::string type, bool isAudio);

    // 初始化编码器
    int init_encoderCodec(std::string type, int32_t fps, uint32_t width, uint32_t height, int IFrame, int code_rate);

    std::string get_encode_extradata();

    std::shared_ptr<AVPacket> encode();

    int write_packet(std::shared_ptr<AVPacket> packet){
        return av_interleaved_write_frame(outputContext, packet.get());
    }

    int mat_to_frame(cv::Mat &mat);

private:
    int initSwsFrame(AVFrame *pSwsFrame, int iWidth, int iHeight);

    AVFrame *pSwsVideoFrame;

    AVFormatContext *outputContext = nullptr;
    AVCodecContext *encodeContext = nullptr;

    int64_t packetCount = 0;

    int video_fps = 25;

    uint8_t *pSwpBuffer = nullptr;
};

#endif /* ffmpeg_encode_hpp*/

FFmpegEncode.cpp

#include "ffmpeg_encode.h"

FFmpegEncode::FFmpegEncode()
{
    av_register_all();
    avcodec_register_all();
    avformat_network_init();
    avdevice_register_all();
    av_log_set_level(AV_LOG_ERROR);     // 设置 log 为error级别

    pSwsVideoFrame = av_frame_alloc();
}

FFmpegEncode::~FFmpegEncode()
{
    if(encodeContext != nullptr)
        avcodec_free_context(&encodeContext);

    if(outputContext != nullptr)
    {
        av_write_trailer(outputContext);
        for(uint32_t i = 0; i < outputContext->nb_streams; i++)
        {
            avcodec_close(outputContext->streams[i]->codec);
        }
        avformat_close_input(&outputContext);
    }

    av_frame_free(&pSwsVideoFrame);

    if(pSwpBuffer)
        av_free(pSwpBuffer);
}

int FFmpegEncode::open_output(std::string path, std::string type, bool isAudio)
{
    int ret = avformat_alloc_output_context2(&outputContext, NULL, type.c_str(), path.c_str());
    std::cout<<"avformat_alloc_output_context2 ret : "<<ret<<std::endl;
    if (ret < 0)
    {
        av_log(NULL, AV_LOG_ERROR, "open output context failed\n");
        return ret;
    }

    ret = avio_open(&outputContext->pb, path.c_str(), AVIO_FLAG_WRITE);
    std::cout<<"avio_open ret : "<<ret<<std::endl;

    if (isAudio)
    {
        for (uint32_t i = 0; i < outputContext->nb_streams; i++) // 如果有音频 和 视频 nputContext->nb_streams则为2
        {
            if (outputContext->streams[i]->codec->codec_type == AVMediaType::AVMEDIA_TYPE_AUDIO)// 如果有stream 为音频 则不处理
            {
                continue;
            }
            AVStream * stream = avformat_new_stream(outputContext, encodeContext->codec);
            ret = avcodec_copy_context(stream->codec, encodeContext);
            if (ret < 0)
            {
                av_log(NULL, AV_LOG_ERROR, "copy coddec context failed");
                return ret;
            }
        }
    }
    else
    {
        AVStream * stream = avformat_new_stream(outputContext, encodeContext->codec);
        if (!stream)
        {
            char buf[1024];
            //获取错误信息
            av_strerror(ret, buf, sizeof(buf));
            std::cout << " failed! " << buf << std::endl;
            return -1;
        }
        ret = avcodec_copy_context(stream->codec, encodeContext);
        std::cout<<"avcodec_copy_context ret : "<<ret<<std::endl;
        if (ret < 0)
        {
            char buf[1024];
            //获取错误信息
            av_strerror(ret, buf, sizeof(buf));
            std::cout << " failed! " << buf << std::endl;
            return ret;
        }
    }

    av_dump_format(outputContext, 0, path.c_str(), 1);

    ret = avformat_write_header(outputContext, nullptr);
    if (ret < 0)
    {
        av_log(NULL, AV_LOG_ERROR, "format write header failed");
        return ret;
    }

    av_log(NULL, AV_LOG_FATAL, " Open output file success: %s\n", path.c_str());
    return ret;
}

int FFmpegEncode::init_encoderCodec(std::string type, int32_t fps, uint32_t width, uint32_t height, int IFrame, int code_rate)
{
    video_fps = fps;

    // 终端运行 
    // ffmpeg -hwaccels
    // ffmpeg -codecs | grep videotoolbox
    // ffprobe -codecs -hide_banner| grep h264
    std::string encoder_name = type + "_nvmpi";
    AVCodec *enCodec = avcodec_find_encoder_by_name(encoder_name.c_str());

    if(!enCodec)
        enCodec = avcodec_find_encoder_by_name("libx264");

    std::cout<< "使用编码器: "<< enCodec->name<< std::endl;

    encodeContext = avcodec_alloc_context3(enCodec);
    encodeContext->codec_id = enCodec->id;

    encodeContext->time_base = (AVRational){1, video_fps};
    encodeContext->framerate = (AVRational){video_fps, 1};

    encodeContext->gop_size = IFrame;  //每50帧插入1个I帧
    encodeContext->max_b_frames = 0;   //两个非B帧之间允许出现多少个B帧数,设置0表示不使用B帧,b 帧越多,图片越小

    encodeContext->pix_fmt = AV_PIX_FMT_YUV420P;     //像素的格式,也就是说采用什么样的色彩空间来表明一个像素点

    encodeContext->width = (width == 0) ? outputContext->streams[0]->codecpar->width : width;
    encodeContext->height = (height == 0) ? outputContext->streams[0]->codecpar->height : height;

    encodeContext->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
    encodeContext->bit_rate = code_rate*1024;


    AVDictionary *param = NULL;
    av_dict_set(&param, "preset", "fast", 0);        // ultrafast, superfast, veryfast, faster, fast, medium, slow, slower, veryslow, placebo.
    av_dict_set(&param, "tune", "fastdecode", 0);    // film、animation、grain、stillimage、psnr、ssim、fastdecode、zerolatency
    av_dict_set(&param, "profile", "baseline", 0);   //baseline, extended, main, high

    int ret = avcodec_open2(encodeContext, enCodec, &param);
    av_free(param);
    param = NULL;
    if (ret < 0)
    {
        std::cout<< "open video codec failed"<< std::endl;
        return  ret;
    }

    initSwsFrame(pSwsVideoFrame, encodeContext->width, encodeContext->height);

    return 1;
}

std::string FFmpegEncode::get_encode_extradata()
{
    std::string output = "";
    if(encodeContext->extradata_size > 0)
    {
        output = "extradata_" + std::to_string(encodeContext->extradata_size);
        for(int i = 0; i< encodeContext->extradata_size; i++)
            output = output + "_" + std::to_string(int(encodeContext->extradata[i]));
    }
    return output;
}

std::shared_ptr<AVPacket> FFmpegEncode::encode()
{
    int gotOutput = 0;
    std::shared_ptr<AVPacket> pkt(static_cast<AVPacket*>(av_malloc(sizeof(AVPacket))), [&](AVPacket *p) { av_packet_free(&p); av_freep(&p); });
    av_init_packet(pkt.get());
    pkt->data = NULL;
    pkt->size = 0;

    int ret = avcodec_encode_video2(encodeContext, pkt.get(), pSwsVideoFrame, &gotOutput);

    if (ret >= 0 && gotOutput)
    {
        int64_t pts_time = av_rescale_q(packetCount++, (AVRational){1, video_fps}, outputContext->streams[0]->time_base);
        pkt->pts = pkt->dts = pts_time;

        return pkt;
    }
    return nullptr;
}

int FFmpegEncode::mat_to_frame(cv::Mat &mat)
{
    int width = mat.cols;
    int height = mat.rows;
    int cvLinesizes[1];
    cvLinesizes[0] = (int)mat.step1();
    if (pSwsVideoFrame == NULL){
        pSwsVideoFrame = av_frame_alloc();
        av_image_alloc(pSwsVideoFrame->data, pSwsVideoFrame->linesize, width, height, AVPixelFormat::AV_PIX_FMT_YUV420P, 1);
    }
    SwsContext* conversion = sws_getContext(width, height, AVPixelFormat::AV_PIX_FMT_BGR24, width, height, (AVPixelFormat)pSwsVideoFrame->format, SWS_FAST_BILINEAR, NULL, NULL, NULL);
    sws_scale(conversion, &mat.data, cvLinesizes , 0, height, pSwsVideoFrame->data, pSwsVideoFrame->linesize);
    sws_freeContext(conversion);

    return  0;
}

int FFmpegEncode::initSwsFrame(AVFrame *pSwsFrame, int iWidth, int iHeight)
{
    // 计算一帧的大小
    int numBytes = av_image_get_buffer_size(encodeContext->pix_fmt, iWidth, iHeight, 1);
    if(pSwpBuffer)
        av_free(pSwpBuffer);

    pSwpBuffer = (uint8_t *)av_malloc(numBytes * sizeof(uint8_t));
    // 将数据存入 uint8_t 中
    av_image_fill_arrays(pSwsFrame->data, pSwsFrame->linesize, pSwpBuffer, encodeContext->pix_fmt, iWidth, iHeight, 1);
    pSwsFrame->width = iWidth;
    pSwsFrame->height = iHeight;
    pSwsFrame->format = encodeContext->pix_fmt;
    return 1;
}

main.cpp

//ZLMediaKit用于播放rtsp,SRS/nginx用于播放rtmp/webrtc
#include <iostream>
#include <opencv2/opencv.hpp>
#include <boost/thread.hpp>
#include <boost/smart_ptr.hpp>
#include <boost/bind.hpp>
#include <vector>
#include <map>
#include <stdio.h>
#include <string>
#include <utility>

#include <boost/date_time/posix_time/posix_time.hpp>
#include <boost/thread.hpp>
#include "ffmpeg_encode.hpp"

using namespace std;

uint32_t rgb_fps = 20;                      // 可见光视频帧率

int main(int argc, char* argv[])
{
    std::cout << "start" << std::endl;

    std::string pipeline = "rtsp://admin:123456@192.168.1.235/h264/ch1/main/av_stream";

    std::string rgb_rtmp_path = "rtmp://127.0.0.1:1935/hls/test_rgb";
    std::string rgb_rtsp_path = "rtsp://127.0.0.1:8556/hls/test_rgb";
    std::string rgb_webrtc_path = "webrtc://127.0.0.1:1985/hls/test_rgb";

    std::string rgb_path;
    std::string rgb_type;

    if(argc != 2) {
        cout<<"1-rtmp 2-rtsp 3-webrtc"<<endl;
    } else {
        if (strcmp(argv[1], "1") == 0) {
            rgb_path = rgb_rtmp_path;
            rgb_type = "flv";
        } else if (strcmp(argv[1], "2") == 0) {
            rgb_path = rgb_rtsp_path;
            rgb_type = "rtsp";
        } else if (strcmp(argv[1], "3") == 0) {
            rgb_path = rgb_webrtc_path;
            rgb_type = "webrtc";
        }
    }

    cv::VideoCapture capture(pipeline);
    if (! capture.isOpened())
    {
        std::cout<< "RGB摄像头打开失败"<< std::endl;
        return -1;
    }

    FFmpegEncode camera_io;

    // 初始化编码器
    if(camera_io.init_encoderCodec("h264", rgb_fps, 1280, 720, 50, 4096) < 0)
        return -3;

    std::string rgb_extradata = camera_io.get_encode_extradata() + "_" + "h264";
    rgb_extradata = rgb_extradata + "&&" + std::to_string(rgb_fps) + "_1280_720";
    std::cout<<"rgb_extradata = "<<rgb_extradata<<std::endl;

    cout<<"rgb_path: "<<rgb_path<<" rgb_type: "<<rgb_type<<endl;
    if(camera_io.open_output(rgb_path, rgb_type, false) < 0)
        return -4;

    int64_t fps_start_time = av_gettime();
    uint64_t fps_count = 0;
    int64_t get_frame_time = 0;

    // 获取可见光视频
    while(capture.isOpened())
    {
        cv::Mat rgb_mat;
        capture >> rgb_mat;
        get_frame_time = av_gettime();

        if(rgb_mat.empty())
        {
            boost::this_thread::sleep(boost::posix_time::microseconds(5));
            continue;
        }

        // 输出可见光视频帧率
        if(get_frame_time - fps_start_time < 1 * 1000 * 1000)
        {
            fps_count++;
        }
        else
        {
            std::cout<< "rgb fps: "<< fps_count + 1 << std::endl;
            fps_count = 0;
            fps_start_time = get_frame_time;
        }

        // Mat转frame
        if(camera_io.mat_to_frame(rgb_mat) < 0)
            continue;

        // 编码
        auto packet_encode = camera_io.encode();
        if(packet_encode)
        {
            camera_io.write_packet(packet_encode);
            av_free_packet(packet_encode.get());

        }
    }
    std::cout<< "RGB摄像头编解码程序退出"<< std::endl;

    return 0;
}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2376742.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Intellij报错:the file size(3.47M) exceeds configured limit (2.56MB)

今天在部署一个教学平台的时候&#xff0c;当执行数据库脚本出现了以上问题。 自己把解决的方案分享给大家&#xff1a; 于IntelliJ IDEA或PyCharm&#xff0c;可以通过编辑idea.properties文件来增加文件大小限制。 打开idea.properties文件&#xff0c;通常位于IDE的安装目录…

Unity动画与生命周期函数

一、Animator动画组件 Animator组件是Unity中用于管理和控制动画的主要工具&#xff0c;它可以处理复杂的动画状态机和动画片段之间的过 1.动画状态机 Animator组件的核心是动画状态机&#xff0c;它由多个动画状态和状态之间的过渡组成。可以通过Unity的动画窗口来创建和编辑…

解决ubuntu20中tracker占用过多cpu,引起的风扇狂转

track是linux中的文件索引工具&#xff0c;ubuntu18之前是默认不安装的&#xff0c;所以在升级到20后会默认安装&#xff0c;它是和桌面程序gnome绑定的&#xff0c;甚至还有很多依赖项&#xff0c;导致无法删除&#xff0c;一旦删除很多依赖项都不能运行&#xff0c;禁用也很难…

在线文档管理系统 spring boot➕vue|源码+数据库+部署教程

&#x1f4cc; 一、项目简介 本系统采用Spring Boot Vue ElementUI技术栈&#xff0c;支持管理员和员工两类角色&#xff0c;涵盖文档上传、分类管理、公告发布、员工资料维护、部门岗位管理等核心功能。 系统目标是打造一个简洁高效的内部文档管理平台&#xff0c;便于员工…

在UI 原型设计中,交互规则有哪些核心要素?

在UI 原型设计中&#xff0c;交互规则主要有三个核心要素&#xff0c;分别为重要性、原则与实践&#xff0c;具体表现在&#xff1a; 一、交互规则在 UI 原型设计中的重要性 明确交互逻辑&#xff1a;设计阶段制定交互规则&#xff0c;清晰定义界面元素操作响应。 如社交应用…

OpenResty Manager 介绍与部署(Docker部署)

概述 OpenResty-Manager 是一个基于 OpenResty 构建的开源 Web 管理平台。OpenResty 是一个高性能的 Web 平台&#xff0c;集成了 Nginx 和 LuaJIT&#xff0c;支持强大的脚本功能。OpenResty-Manager 由 Safe3 开发&#xff0c;提供了一个用户友好的界面&#xff0c;用于管理…

快速搭建一个electron-vite项目

1. 初始化项目 在命令行中运行以下命令 npm create quick-start/electronlatest也可以通过附加命令行选项直接指定项目名称和你想要使用的模版。例如&#xff0c;要构建一个 Electron Vue 项目&#xff0c;运行: # npm 7&#xff0c;需要添加额外的 --&#xff1a; npm cre…

unity terrain 在生成草,树,石头等地形障碍的时候,无法触发碰撞导致人物穿过模型

1.terrain地形的草&#xff0c;石头之类要选择模型预制体 2.在人物身上挂碰撞器和刚体&#xff0c;或者单挂一个character controller组件也行 3.在预制体上挂碰撞盒就好了&#xff0c;挂载meshcollider会导致碰撞无效

75.xilinx复数乘法器IP核调试

&#xff08;83*j&#xff09;*(57j) 935j 正确的是 1971j 分析出现的原因&#xff1a;&#xff08;abj&#xff09;* (cdj) (ac-bd)j(adbc) 其中a,b,c,d都是16bit的有符号数&#xff0c;乘积的结果为保证不溢出需要32bit存储&#xff0c;最终的复数乘法结果是两个32b…

8.ADC

目录 ADC 模拟信号和数字信号的区别和区别 信号的区别 如何采集信号 常见的接口 数字接口 模拟接口 ADC 实际应用 ADC 转换器的定义 ADC 相关的名词 ADC 采集的原理 ADC 的参考电压 相关的计算 如何实现 ADC STM32 内的 ADC 转换器讲解 STM32 的 ADC 简介 AD…

c/c++中程序内存区域的划分

c/c程序内存分配的几个区域&#xff1a; 1.栈区&#xff1a;在执行函数时&#xff0c;函数内局部变量的存储单元都可以在栈上创建&#xff0c;函数执行结束时这些存储单元自动被释放&#xff0c;栈内存分配运算内置于处理器的指令集中&#xff0c;效率很高但是分配的内存容量有…

模糊综合评价模型建立

模糊综合评价模型建立 一、整体流程 二、代码实现(含大量注释) #程序文件ex14_4.py import numpy as npa np.loadtxt(data14_4.txt) # 使用定义匿名函数的形式来定义各个评价指标的隶属函数 f1 lambda x: x/8800 f2 lambda x: 1-x/8000 f3 lambda x: (x<5.5)(8-x)/(8-…

【Linux】Linux安装mysql

该教程是使用的 CentOS 8.2 安装 mysql。 1.删除原有mysql rpm -qa|grep mariadb 如果存在在mariadb&#xff0c;卸载命令如下&#xff1a; #rpm -e --nodeps是强制卸载指令 后面是查出的依赖名称rpm -e --nodeps mariadb-libs-5.5.64-1.el7.x86_64全部卸载完输入以下指令&am…

模仿学习笔记

模仿学习总共分两类&#xff1a; 行为克隆&#xff1a;BC,Dagger逆强化学习:又分为 2.1基于最大边际逆强化学习 &#xff08;无法主要歧义问题&#xff09;&#xff1a;学徒学习 2.2 基于最大熵逆强化学习 &#xff08;主要解决歧义问题&#xff09;:GAIL 学徒学习 基于最大熵…

一文讲透 Vue3 + Three.js 材质属性之皮革篇【扫盲篇】

文章目录 前言一、Three.js材质系统基础1.1 为什么选择PBR材质&#xff1f;1.2 关键参数解析 二、不同类型皮革的材质配置2.1 牛皮材质实现2.2 羊皮材质实现2.3 仿皮材质实现 三、高级贴图技术3.1 贴图制作流程3.2 组合贴图实战 四、性能优化策略4.1 贴图压缩技术4.2 材质共享4…

MUSE Pi Pro 使用TiTanTools烧录镜像

视频讲解&#xff1a; MUSE Pi Pro 使用TiTanTools烧录镜像 下载windows下的烧录工具 https://cloud.spacemit.com/prod-api/release/download/tools?tokentitantools_for_windows_X86_X64 下载镜像文件&#xff0c;zip后缀的即可 打开软件默认界面 按住FDL键&#xff0c;同时…

安卓A15系统实现修改锁屏界面默认壁纸功能

最近遇到一个A15系统项目&#xff0c;客户要求修改锁屏界面的默认壁纸&#xff0c;客户提供了一张壁纸图片&#xff0c;但是从A15系统的源代码查看时才知道谷歌已经去掉了相关的代码&#xff0c;已经不支持了&#xff0c;A13和A14系统好像是支持的&#xff0c;A15系统的Wallpap…

IT系统的基础设施:流量治理、服务治理、资源治理,还有数据治理。

文章目录 引言I IT系统的基础设施流量治理、服务治理、资源治理,还有数据治理。开发语言的选择数据治理(监控系统):整体运维的数据其他II 基础知识的重要性第一,知道原理第二,当遇到一些比较难解的问题时,基础知识就会派上用场。例子III 大公司和小公司的权衡对比大公司…

使用 TypeScript + dhtmlx-gantt 在 Next.js 中实现

1. 安装依赖&#xff08;确保已安装&#xff09; npm install dhtmlx-gantt2. 创建 pages/gantt.tsx use clientimport { useRef, useEffect } from react import { gantt } from dhtmlx-gantt import dhtmlx-gantt/codebase/dhtmlxgantt.cssinterface Task {id: number | st…

解锁健康生活:现代养生实用方案

早上被闹钟惊醒后匆忙灌下咖啡&#xff0c;中午用外卖应付一餐&#xff0c;深夜刷着手机迟迟不肯入睡 —— 这样的生活模式&#xff0c;正在不知不觉侵蚀我们的健康。科学养生并非遥不可及的目标&#xff0c;只需从生活细节入手&#xff0c;就能逐步改善身体状态。​ 饮食管理…