
ffmpegexe -i F:\闪客之家\闪客之歌mp3 -ab 56 -ar 22050 -b 500 -r 15 -s 320x240 f:\11flv
ffmpeg -i F:\01wmv -ab 56 -ar 22050 -b 500 -r 15 -s 320x240 f:\testflv
使用-ss参数 作用(time_off set the start time offset),可以从指定时间点开始转换任务。如:
转换文件格式的同时抓缩微图:
ffmpeg -i testavi -y -f image2 -ss 8 -t 0001 -s 350x240 'testjpg'
对已有flv抓图:
ffmpeg -i testflv -y -f image2 -ss 8 -t 0001 -s 350x240 'testjpg'
-ss后跟的时间单位为秒
Ffmpeg转换命令
ffmpeg -y -i testmpeg -bitexact -vcodec h263 -b 128 -r 15 -s 176x144 -acodec aac -ac 2 -ar 22500
-ab 24 -f 3gp test3gp
或者
ffmpeg -y -i testmpeg -ac 1 -acodec amr_nb -ar 8000 -s 176x144 -b 128 -r 15 test3gp
ffmpeg参数设定解说
-bitexact 使用标准比特率
-vcodec xvid 使用xvid压缩
-s 320x240 指定分辨率
-r 2997 桢速率(可以改,确认非标准桢率会导致音画不同步,所以只能设定为15或者2997)
画面部分,选其一
-b <比特率> 指定压缩比特率,似乎ffmpeg是自动VBR的,指定了就大概是平均比特率,比如768,1500这样的
就是原来默认项目中有的
-qscale <数值> 以<数值>质量为基础的VBR,取值001-255,约小质量越好
-qmin <数值> 设定最小质量,与-qmax(设定最大质量)共用,比如-qmin 10 -qmax 31
-sameq 使用和源同样的质量
声音部分
-acodec aac 设定声音编码
-ac <数值> 设定声道数,1就是单声道,2就是立体声,转换单声道的TVrip可以用1(节省一半容量),高品质
的DVDrip就可以用2
-ar <采样率> 设定声音采样率,PSP只认24000
-ab <比特率> 设定声音比特率,前面-ac设为立体声时要以一半比特率来设置,比如192kbps的就设成96,转换
君默认比特率都较小,要听到较高品质声音的话建议设到160kbps(80)以上
-vol <百分比> 设定音量,某些DVDrip的AC3轨音量极小,转换时可以用这个提高音量,比如200就是原来的2倍
这样,要得到一个高画质音质低容量的MP4的话,首先画面最好不要用固定比特率,而用VBR参数让程序自己去
判断,而音质参数可以在原来的基础上提升一点,听起来要舒服很多,也不会太大(看情况调整
例子:ffmpeg -y -i 1avi -title Test -vcodec xvid -s 368x208 -r 2997 -b 1500 -acodec aac -ac 2 -ar 24000 -ab 128 -vol 200 -f psp -muxvb 768 1
解释:以上命令可以在Dos命令行中输入,也可以创建到批处理文件中运行。不过,前提是:要在ffmpeg所在的目录中执行(转换君所在目录下面的cores子目录)。
参数:
-y(覆盖输出文件,即如果1文件已经存在的话,不经提示就覆盖掉了)
-i 1avi(输入文件是和ffmpeg在同一目录下的1avi文件,可以自己加路径,改名字)
-title Test(在PSP中显示的影片的标题)
-vcodec xvid(使用XVID编码压缩视频,不能改的)
-s 368x208(输出的分辨率为368x208,注意片源一定要是16:9的不然会变形)
-r 2997(帧数,一般就用这个吧)
-b 1500(视频数据流量,用-b xxxx的指令则使用固定码率,数字随便改,1500以上没效果;还可以用动态码率如:-qscale 4和-qscale 6,4的质量比6高)
-acodec aac(音频编码用AAC)
-ac 2(声道数1或2)
-ar 24000(声音的采样频率,好像PSP只能支持24000Hz)
-ab 128(音频数据流量,一般选择32、64、96、128)
-vol 200(200%的音量,自己改)
-f psp(输出psp专用格式)
-muxvb 768(好像是给PSP机器识别的码率,一般选择384、512和768,我改成1500,PSP就说文件损坏了)
1(输出文件名,也可以加路径改文件名)
机器强劲的话,可以多开几个批处理文件,让它们并行处理。
E:\ffmpegexe -i I:\1wmv -b 360 -r 25 -s 320x240 -hq -deinterlace -ab 56 -ar 22050 -ac 1 D:\2flv
官网对FATE的介绍
FATE(FFmpeg Automated Testing Environment): ffmpeg回归测试的套件以及提供了一种在服务器上对测试结果进行聚合和展示的方式。
包含3部分内容:
FFmpeg公开服务器的测试结果: >
下面的一切都是在 root 模式下进行的,可以不再 root 模式下进行
基础环境就是编译代码的基础库,Ubuntu联网安装软件很简单,一个语句即可搞定,这里列出语句如下:
依赖库分两方面,参考以下网站列出的依赖库信息,本文选择的版本均参考于此网页: FFmpeg依赖库信息
首先创建 FFmpeg 代码目录,所有的源代码放在这个目录下
FFmpeg 编译之后,即可使用。编译生成的可执行程序在 ~/bin 目录下
注:上面的 /configure 配置编译后并不能进行调试,需要如下配置
刚才的工程可以运行,但不能debug。解决此问题,首先认定一点,生成的可执行程序中,ffmpeg 不包含调试信息,调试信息在 ffmpeg_g 中,debug 要选择 ffmpeg_g。
另外,/config选项也是确定包含调试信息的核心,需要在config中添加:
采用以下命令重新config:
一些注意事项; 在使用 ffplay 播放生成 h264 格式的视频时,播放速度会加快,解决方式:不要使用 FFmpeg 转码生成纯 h264 格式的视频,要使用一种容器包含 h264 视频,即生成一种音视频流格式,也就是不要生成纯粹的 h264 码流,而是生成诸如 mkv 等格式的文件。
//第一步:注册组件->编码器、解码器等等…
av_register_all();
//第二步:初始化封装格式上下文->视频编码->处理为视频压缩数据格式
AVFormatContext avformat_context = avformat_alloc_context();
//注意事项:FFmepg程序推测输出文件类型->视频压缩数据格式类型
const char coutFilePath = [outFilePath UTF8String];
//得到视频压缩数据格式类型(h264、h265、mpeg2等等)
AVOutputFormat avoutput_format = av_guess_format(NULL, coutFilePath, NULL);
//指定类型
avformat_context->oformat = avoutput_format;
//第三步:打开输出文件
//参数一:输出流
//参数二:输出文件
//参数三:权限->输出到文件中
if (avio_open(&avformat_context->pb, coutFilePath, AVIO_FLAG_WRITE) < 0) {
NSLog(@"打开输出文件失败");
return;
}
//第四步:创建输出码流->创建了一块内存空间->并不知道他是什么类型流->希望他是视频流
AVStream av_video_stream = avformat_new_stream(avformat_context, NULL);
//第五步:查找视频编码器
//1、获取编码器上下文
AVCodecContext avcodec_context = av_video_stream->codec;
//2、设置编解码器上下文参数->必需设置->不可少
//目标:设置为是一个视频编码器上下文->指定的是视频编码器
//上下文种类:视频解码器、视频编码器、音频解码器、音频编码器
//21 设置视频编码器ID
avcodec_context->codec_id = avoutput_format->video_codec;
//22 设置编码器类型->视频编码器
//视频编码器->AVMEDIA_TYPE_VIDEO
//音频编码器->AVMEDIA_TYPE_AUDIO
avcodec_context->codec_type = AVMEDIA_TYPE_VIDEO;
//23 设置读取像素数据格式->编码的是像素数据格式->视频像素数据格式->YUV420P(YUV422P、YUV444P等等)
//注意:这个类型是根据你解码的时候指定的解码的视频像素数据格式类型
avcodec_context->pix_fmt = AV_PIX_FMT_YUV420P;
//24 设置视频宽高->视频尺寸
avcodec_context->width = 640;
avcodec_context->height = 352;
//25 设置帧率->表示每秒25帧
//视频信息->帧率 : 25000 fps
//f表示:帧数
//ps表示:时间(单位:每秒)
avcodec_context->time_basenum = 1;
avcodec_context->time_baseden = 25;
//26 设置码率
//261 什么是码率?
//含义:每秒传送的比特(bit)数单位为 bps(Bit Per Second),比特率越高,传送数据速度越快。
//单位:bps,"b"表示数据量,"ps"表示每秒
//目的:视频处理->视频码率
//262 什么是视频码率
//含义:视频码率就是数据传输时单位时间传送的数据位数,一般我们用的单位是kbps即千位每秒
//视频码率计算如下?
//基本的算法是:码率(kbps)=视频大小 - 音频大小(bit位) /时间(秒)
//例如:Testmov时间 = 24,文件大小(视频+音频) = 173MB
//视频大小 = 134MB(文件占比:77%) = 134MB 1024 1024 8 = 字节大小 = 468365字节 = 468Kbps
//音频大小 = 376KB(文件占比:21%)
//计算出来值->码率 : 468Kbps->表示1000,b表示位(bit->位)
//总结:码率越大,视频越大
avcodec_context->bit_rate = 468000;
//27 设置GOP->影响到视频质量问题->画面组->一组连续画面
//MPEG格式画面类型:3种类型->分为->I帧、P帧、B帧
//I帧->内部编码帧->原始帧(原始视频数据)
// 完整画面->关键帧(必需的有,如果没有I,那么你无法进行编码,解码)
// 视频第1帧->视频序列中的第一个帧始终都是I帧,因为它是关键帧
//P帧->向前预测帧->预测前面的一帧类型,处理数据(前面->I帧、B帧)
// P帧数据->根据前面的一帧数据->进行处理->得到了P帧
//B帧->前后预测帧(双向预测帧)->前面一帧和后面一帧
// B帧压缩率高,但是对解码性能要求较高。
//总结:I只需要考虑自己 = 1帧,P帧考虑自己+前面一帧 = 2帧,B帧考虑自己+前后帧 = 3帧
// 说白了->P帧和B帧是对I帧压缩
//每250帧,插入1个I帧,I帧越少,视频越小->默认值->视频不一样
avcodec_context->gop_size = 250;
//28 设置量化参数->数学算法(高级算法)->不讲解了
//总结:量化系数越小,视频越是清晰
//一般情况下都是默认值,最小量化系数默认值是10,最大量化系数默认值是51
avcodec_context->qmin = 10;
avcodec_context->qmax = 51;
//29 设置b帧最大值->设置不需要B帧
avcodec_context->max_b_frames = 0;
//第二点:查找编码器->h264
//找不到编码器->h264
//重要原因是因为:编译库没有依赖x264库(默认情况下FFmpeg没有编译进行h264库)
//第一步:编译h264库
AVCodec avcodec = avcodec_find_encoder(avcodec_context->codec_id);
if (avcodec == NULL) {
NSLog(@"找不到编码器");
return;
}
NSLog(@"编码器名称为:%s", avcodec->name);
//第六步:打开h264编码器
//缺少优化步骤?
//编码延时问题
//编码选项->编码设置
AVDictionary param = 0;
if (avcodec_context->codec_id == AV_CODEC_ID_H264) {
//需要查看x264源码->x264c文件
//第一个值:预备参数
//key: preset
//value: slow->慢
//value: superfast->超快
av_dict_set(¶m, "preset", "slow", 0);
//第二个值:调优
//key: tune->调优
//value: zerolatency->零延迟
av_dict_set(¶m, "tune", "zerolatency", 0);
}
if (avcodec_open2(avcodec_context, avcodec, ¶m) < 0) {
NSLog(@"打开编码器失败");
return;
}
//第七步:写入文件头信息
avformat_write_header(avformat_context, NULL);
//第8步:循环编码yuv文件->视频像素数据(yuv格式)->编码->视频压缩数据(h264格式)
//81 定义一个缓冲区
//作用:缓存一帧视频像素数据
//811 获取缓冲区大小
int buffer_size = av_image_get_buffer_size(avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1);
//812 创建一个缓冲区
int y_size = avcodec_context->width avcodec_context->height;
uint8_t out_buffer = (uint8_t ) av_malloc(buffer_size);
//813 打开输入文件
const char cinFilePath = [inFilePath UTF8String];
FILE in_file = fopen(cinFilePath, "rb");
if (in_file == NULL) {
NSLog(@"文件不存在");
return;
}
//821 开辟一块内存空间->av_frame_alloc
//开辟了一块内存空间
AVFrame av_frame = av_frame_alloc();
//822 设置缓冲区和AVFrame类型保持一直->填充数据
av_image_fill_arrays(av_frame->data,
av_frame->linesize,
out_buffer,
avcodec_context->pix_fmt,
avcodec_context->width,
avcodec_context->height,
1);
int i = 0;
//92 接收一帧视频像素数据->编码为->视频压缩数据格式
AVPacket av_packet = (AVPacket ) av_malloc(buffer_size);
int result = 0;
int current_frame_index = 1;
while (true) {
//81 从yuv文件里面读取缓冲区
//读取大小:y_size 3 / 2
if (fread(out_buffer, 1, y_size 3 / 2, in_file) <= 0) {
NSLog(@"读取完毕");
break;
}else if (feof(in_file)) {
break;
}
//82 将缓冲区数据->转成AVFrame类型
//给AVFrame填充数据
//823 void restrict->->转成->AVFrame->ffmpeg数据类型
//Y值
av_frame->data[0] = out_buffer;
//U值
av_frame->data[1] = out_buffer + y_size;
//V值
av_frame->data[2] = out_buffer + y_size 5 / 4;
av_frame->pts = i;
//注意时间戳
i++;
//总结:这样一来我们的AVFrame就有数据了
//第9步:视频编码处理
//91 发送一帧视频像素数据
avcodec_send_frame(avcodec_context, av_frame);
//92 接收一帧视频像素数据->编码为->视频压缩数据格式
result =avcodec_receive_packet(avcodec_context, av_packet);
//93 判定是否编码成功
if (result == 0) {
//编码成功
//第10步:将视频压缩数据->写入到输出文件中->outFilePath
av_packet->stream_index = av_video_stream->index;
result =av_write_frame(avformat_context, av_packet);
NSLog(@"当前是第%d帧", current_frame_index);
current_frame_index++;
//是否输出成功
if (result < 0) {
NSLog(@"输出一帧数据失败");
return;
}
}
}
//第11步:写入剩余帧数据->可能没有
flush_encoder(avformat_context, 0);
//第12步:写入文件尾部信息
av_write_trailer(avformat_context);
//第13步:释放内存
avcodec_close(avcodec_context);
av_free(av_frame);
av_free(out_buffer);
av_packet_free(&av_packet);
avio_close(avformat_context->pb);
avformat_free_context(avformat_context);
fclose(in_file);
express-ffmpeg 云转码是基于 nodejs 开发的视频转码切片程序,并带有 cms 系统一体化发布系统,自适应布局,针对移动端优化、 SEO 效果极佳,后台设置分类,前台自动分类,视频播放,截图展示,分享链接展示,满足大量如在线视频、在线教育、在线培训等用户的需求。
环境要求: nodejs 、 expessjs 、 mongodb 、 redis 、 ffmpeg 环境
1、安装宝塔
然后安装 Redis 、 PM2 ( node 版本切换到 8x )、 Mongodb 。
2、安装ffmpeg
3、安装程序
访问地址: ip:3000 ,后台 ip:3000/admin>
正常。尚未添加ffmpeg程序路径到用户或系统环境变量中,是只能在包含ffmpeg主程序的bin文件夹里进行编解码 *** 作。其次,输出的结果,如未指定自定义路径,也是默认输出在包含ffmpeg主程序的bin文件夹里的。
事实上,在日常工作中,这非常不方便,为了保证在任意文件路径下都可以使用ffmpeg程序,建议还是将ffmpeg程序路径添加到用户或系统环境变量中。
解决方法:
1、将手机上的2113文件与电脑进行相连,可以直接5261用数据线,也可以下载一个4102360手机助手1653,直接扫码链接
2、在手机“文件管理”中找到“sdcard”点开后找到“QQBrowser”
3、点击“QQBrowser”,找到“视频”,点击进入下一页面,找到m3u8格式视频对应的ts文件夹。
4、选中文件夹,右击鼠标,选择“导出”
5、打开导出到电脑的文件夹,在空白处右击鼠标,选择“新建”-“文本文档”
6、 双击打开,输入“copy/b(空格) 1ts+2ts+3ts。
7、在d出窗口点击“是”。
8、双击更改后的文本文档,自动建立合并后的视频,播放查看即可。
我用的是基于C++的ffmpeg开发,ffmpeg原本是针对linux下的GCC编译器,当然通过MinGW也可以在win下进行编译,但是需要安装额外的编译环境,你可以上chinavideo上去看看,那上面说的很清楚,的你所说的问题也不是很难,多看看开发文档就可以解决了。
以上就是关于ffmpeg.exe的参数全部的内容,包括:ffmpeg.exe的参数、FFmpeg Fate(FFmpeg automated test environment)自动化测试、FFmpeg之Linux下编译与调试等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)