当前位置:首页 > 代码 > 正文

ffmpeg代码(ffmpeg代码提取视频)

admin 发布:2022-12-19 21:46 141


本篇文章给大家谈谈ffmpeg代码,以及ffmpeg代码提取视频对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

本文目录一览:

FFmpeg 代码实现流媒体推流(RTSP)

最近需要做实时录屏并把视频推流到RTSP服务器,具体流程是抓取屏幕内容(bitmap),并把bitmap转化为YUV,接着把YUV编码成H264,再把H264码流推到RTSP服务器;把采集到的PCM编码为AAC,再把AAC推流至RTSP服务器。

看了雷神的一篇文章: 最简单的基于FFmpeg的推流器(以推送RTMP为例) ,他是把本地的视频文件推流至RTMP服务器,并不符合我的要求。

接着我找到另一篇文章: ffmpeg实现H264压缩并且推流至RTSP ,这篇文章只有图像编码,并没有音频编码,并且推流之后并没有播放成功。

我综合上面两位大佬的思路,和查找一些资料实现了这个功能。

RTSP服务器使用的是 HappyTime 的免费试用版本。

我抓到的bitmap是BGRA格式的,所以使用的图像格式是 AV_PIX_FMT_BGRA , cropImage 是含有rgba图像的数组

调用:

由于我是实时抓取的屏幕, frame_yuv-pts 设为当前的时间戳,以保证能正常播放。

调用:

调用:

其中pcm_buff是包含pcm数据的数组

使用udp传输时传到1400多帧就断开链接了,原因不明,所以改用使用tcp协议传输

延迟有1.5秒左右

参考:

如何将ffmpeg在windows编译和使用

如下:

1. 配置编译环境

2. 下载FFMPEG的代码

3. 编译,获取FFMPEG库(头文件,lib,和DLL)

4. 在VC下配置,测试

1. 配置编译环境

1)安装MSys

下载文件:

bash-3.1-MSYS-1.0.11-snapshot.tar.bz2

msysCORE-1.0.11-20080826.tar.gz

解压msysCORE-1.0.11-20080826.tar.gz,比如解压到X:\msys(以下内容都使用该路径描述,X为你安装的盘符)。

解压bash-3.1-MSYS-1.0.11-snapshot.tar.bz2,产生一个名为bash-3.1的目录,在该目录下有一个子目录名为bin,其他的目录不需要关心。复制bin目录中的所有文件到D:\msys\bin,提示是否要覆盖sh.exe的时候,选择是。

到“D:\msys\postinstall”目录下执行pi.bat,在出现的提示中输入n回车后(这个不搞错了),按任意键退出即可。

2)安装MinGW

下载文件:

binutils-2.20-1-mingw32-bin.tar.gz

(binutils-2.19.1-mingw32-bin.tar.gz)

gcc-core-3.4.5-20060117-3.tar.gz

gcc-g++-3.4.5-20060117-3.tar.gz

w32api-3.13-mingw32-dev.tar.gz

mingwrt-3.16-mingw32-dev.tar.gz

(mingwrt-3.15.2-mingw32-dev.tar.gz)

mingwrt-3.16-mingw32-dll.tar.gz

(mingwrt-3.15.2-mingw32-dll.tar.gz)

把它们全部解压到X:\msys\mingw。

3)修改“msys.bat”

用文本编辑器打开D:\msys\msys.bat,由于打算用MSVC++编译程序,所以需要有.lib文件才能链接到FFmpeg的库,这些.lib文件可以使用微软的工具链中lib命令产生。为此,机器上必须已经安装了微软的Visual Studio或是Visual C++。把下面一行加到msys.bat的最前面,把路径替换成机器上vcvars32.bat实际存在的路径,比如我的在“D:\program files\Microsoft Visual Studio 8\VC\bin”,于是就添加:

call "D:\program files\Microsoft Visual Studio 8\VC\bin"

4)系统整合

复制D:\msys\etc\fstab.sample为X:\msys\etc\fstab,用文本编辑器打开D:\msys\etc\fstab编辑。(需要使用一个支持Unix换行风格的编辑器,比如Notepad++),把下面这行:

D:/mingw /mingw

改为:

D:/msys/mingw /mingw

注意:改的这个目录为mingw你所安装的目录,所以按本文来讲是这个目录。如果你安装不目录不同,就要改成你所安装的目录。

完成以上步骤,MSys+MinGW系统就配置完成了。

2. 下载FFMPEG的代码

下载代码的办法由两个,一个就是用svn 下载下来。我觉得哪怕你知道svn是啥,也不用这个方法,因为太慢了。一个文件一个文件下,最关键SVN对应的地址是国外,都不知道什么才能全部下完。另外一个直接下一个代码的压缩包。

如何用vc6编译ffmpeg,并单步调试

目前官方ffmpeg的最新版本为0.9, 我们就以此为例:

1. 下载最新git版本的源代码(, 本例下载的是2011-12-12版本)

2. 放到MSYS环境里配置,生成config.h文件。mingw gcc是能顺利编译通过整个项目的,并生成最新版的ffmpeg。

3. 建立vc6工程,把相关代码都加入到工程中。由于在vc生成的obj都在一个目录下,所以需要修改文件名,让其不重名。

4. 安装intel compiler 11编译器,单独提取其icl.exe及相关include目录,替换掉vc6自带的cl.exe, 在工程设置里加上/Qstd=c99,用于支持C99语法。

5. 安装intel compiler 10编译器,单独提取lib目录,因为此版本调试库的结构能完美支持vc6的调试信息。

6. 在vc6的options里设置include/exe/lib查找目录,指向intel编译器。

7. 开始修改代码,添加C99的相关linux头文件, 用于支持vc6, (unistd.h, stdint.h, inttypes.h, getopt.h)

8. 添加C99和linux的相关实现代码,ffmpeg需要用到: getopt_long, strtoll, gettimeofday, atoll, usleep等

9. 修改windows的相关兼容代码,GetWindowLongPtr - GetWindowLong, GWLP_USERDATA

10. 去除硬件加速libavcodec代码,和依赖库代码。选择所需要的模块,修改相关的allcodec.c, alldevices.c, allfilters.c, allformats.c

11. 加上链接库,sdl.lib, winmm.lib, dxguid.lib, wsock32.lib

12. 在os_support.c里,把winsock2.h移动到文件最前面。

13. 如果是ffmpeg, 已经能顺利编译了。如果是ffplay,还需要编译静态sdl, 并链接。

14. 等等,音频运行不正确?有雪花声?因为还需要替换所有文件里的math.h为mathimf.h, 默认的rint等数学函数和gcc不兼容。

15. ok, 大功告成,纯C版本完美运行。

16. 由于ffmpeg0.9在c文件里,添加了一些intel compiler不支持的mmx语法,所以编译mmx/sse加速版本时,一小部分.c文件需要依赖mingw gcc编译成.o文件,再通过vc6的lib.exe工具转换成lib,让vc6链接上。当然还要加上yasm编译的很多汇编obj.

ffmpeg加字幕代码

01?php02$dir = './'; // set to current folder03if ($handle = opendir($dir)) {04 while(false!== ($file = readdir($handle))) {05 if ( is_file($dir.$file) ){06 if (preg_match("'\.(avi)$'", $file) ){07 $sub_file = str_ireplace(".avi", ".srt", $dir.$file);08 $idx_file = str_ireplace(".avi", ".idx", $dir.$file);09 $thumb_file = str_ireplace(".avi", ".jpg", $dir.$file);10 $out_file = str_ireplace(".avi", ".mp4", $dir.$file);11 flv_convert_get_thumb($dir.$file, $sub_file, $idx_file, $thumb_file, $out_file);12 }13 else{14 continue;15 }16 }17 }18 closedir($handle);19}20 21//flv_convert_get_thumb('input.avi', 'input.srt', 'output.jpg', 'output.ogm');22// code provided and updated by steve of phpsnaps ! thanks23// accepts:24// 1: the input video file25// 2: path to thumb jpg26// 3: path to transcoded mpeg?27function flv_convert_get_thumb($in, $in_sub, $in_idx, $out_thumb, $out_vid){28 // get thumbnail29 $cmd = 'ffmpeg -v 0 -y -i '.$in.' -vframes 1 -ss 250 -vcodec mjpeg -f rawvideo -s 286x160 -aspect 16:9 '.$out_thumb;30 $res = shell_exec($cmd);31 // $res is the output of the command32 // transcode video33$cmd = 'mencoder '.$in.' -o '.$out_vid.' -sub '.$in_sub.' -subfont-text-scale 3.0 -subpos 99 -af volume=10 -aspect 16:9 -of avi -noodml -ovc x264 -x264encop$34 $res = shell_exec($cmd);35}36?

ffmpeg 代码是不是完全开源

是的

本开源代码播放器使用的音视频解码代码来源于ffmpeg-0.6.3(),

jni衔接代码和java层代码来源于havlenapetr()。

移植ffmpeg到android的常规关键点网上有很多的帖子可以参考,也可以用文件夹比较工具比较一下,看看添加修改删除了那些文件。

本开源代码的编译环境

1: Android SDK 2.2版,

2: NDK r4版,注意要导出NDK宏,

3: IDE开发环境是 eclips 3.5 版

4: libffplay.so是在Android 2.2版源码目录树中编译出来的,使用Ubuntu10.04和VMware7.1.1版,目前源码不公开

5: libffmpeg.so编译步骤,cd /cygwin/c/ffplay, ./config_r4.sh, $NDK/ndk-build

6: PC主机开发环境是windows xp。

特别注意,此demo只能在 Android SDK 2.2版上使用,其他版本有修改源码,重新编译才行。

此开源代码解决了几个特别关键点,达到实用水平。几个关键点如下:

1:arm汇编代码编译支持,主要是在几个.mk文件中添加LOCAL_ARM_MODE := arm语句,

在config_r4.sh文件中添加--arch=armv5te和--enable-asm 等开关。

2:在ffmpeg config_r4.sh配置文件中关闭了一些不用的选项后,连接时总是报一些莫名其妙的连接错误,

本开源代码给出终极解决方案(在/jni/jni/Android.mk文件中添加 LOCAL_LDLIBS += C:/ffplay/bin/ndk/local/armeabi/libavcodec.a等语句)。

3:修改havlenapetr中的视频显示错误bug,经测试havlenapetr原始代码在模拟器设置为320x480时显示正确,在更大的分辨率下显示错误,

本开源代码已修改好此bug,现在无论什么分辨率都可以正确显示。

此开源代码其他注意事项:

1:jni衔接代码相比havlenapetr精简了几个数量级,更方便网友们研习。

2:此开源代码不包括play,pause,stop,seek和视音频同步等功能实现代码,这部分代码不开源。

3:Android jni层直接输出音频示例,Android jni层直接输出视频示例,基于ffmpeg的Android播放器开源代码,三个工程使用相同的库,相同的方法和技巧,可相互参考。

在moto defy me525上测试通过。

ios下 怎么在代码中调用ffmpeg的命令

ffmpeg是一个多平台多媒体处理工具,处理视频和音频的功能非常强大。目前在网上搜到的iOS上使用FFMPEG的资料都比较陈旧,而FFMPEG更新迭代比较快; 且网上的讲解不够详细,对于初次接触FFMPEG的新手(例如我)来说确实不太好使用。为了防止忘记,这里对iOS下使用FFMPEG做一个总结。

1. FFMPEG层次结构的简单理解

要使用FFMPEG,首先需要理解FFMPEG的代码结构。根据志哥的提示,ffmpeg的代码是包括两部分的,一部分是library,一部分是tool。api都是在library里面,如果直接调api来操作视频的话,就需要写c或者c++了。另一部分是tool,使用的是命令行,则不需要自己去编码来实现视频操作的流程。实际上tool只不过把命令行转换为api的操作而已。

2. 预热-在mac os下使用ffmpeg

在mac os下使用ffmpeg比较简单,可以直接使用命令行来操作。首先安装ffmpeg,这里默认系统已经安装好brew,只需要在终端上输入:

brew install ffmpeg

等待安装结束即可。

安装结束后,尝试以下命令:

ffmpeg -i input.mp4 output.avi

如果能顺利转换,表明安装成功

3. 编译能在iOS下使用的FFMPEG library库

这一步是编译1所说的library,编译好之后可以调用FFMPEG的api。网上有一些方法,但都要自己手动编译,稍显复杂而且比较陈旧。按照app store的需求,编译出来的包还必须支持arm64。我在万能的github中找到一个能够"一键编译"的脚本,地址如下:

而且写这个脚本的歪果仁挺好人,更新很及时,已经更新到了最新的2.5.3版本。下载下来,只有一个build-ffmpeg.sh脚本文件。在终端中转至脚本的目录,执行命令:

./build-ffmpeg.sh

脚本则会自动从github中把ffmpeg源码下到本地并开始编译。

编译结束后,文件目录如下:

其中,ffmpeg-2.5.3是源码,FFmpeg-iOS是编译出来的库,里面有我们需要的.a静态库,一共有7个。

执行命令:

lipo -info libavcodec.a

查看.a包支持的架构,这几个包都支持了armv7 armv7s i386 x86_64 arm64这几个架构,这个脚本果真是业界良心啊~~~

4.在xcode中引入FFMPEG library库

新建工程,把上面编译好的FFmpeg-iOS拖到xcode工程中,添加一个头文件引用

#include "avformat.h"

添加一个api语句:

av_register_all();

添加一个空的类,把执行文件.m后缀改为.mm,开启混编模式。

添加相应的framework,包括avfoundation和coremedia。

运行工程,如果没有报错,则表明编译成功。

5.在xcode项目中使用命令行

执行到第4步,已经可以使用library库了。但是如果要对视频进行操作,还是需要手动写很多代码去调用api,工作量较大,自然不如直接写命令行方便。为了命令行能够在xcode工程中使用,还需要做以下工作:

(1)添加源码中的tools,具体文件包括:

(2)添加Header Search Paths

在target--build setting中搜索Header Search Paths,并在Header Search Paths下面添加源码ffmpeg-2.5.3和scratch的路径。

(3)修改ffmpeg.h和ffmpeg.c源码

如果此时run这个工程,则会报错,原因是工程里面有2个main函数,此时处理方法为:

在ffmpeg.h中添加一个函数声明:

int ffmpeg_main(int argc, char **argv);

在ffmpeg.c中找到main函数,把main函数改为ffmpeg_main。

(4)调用命令行范例

添加头文件:#import "ffmpeg.h"

调用命令行

int numberOfArgs = 16;

char** arguments = calloc(numberOfArgs, sizeof(char*));

arguments[0] = "ffmpeg";

arguments[1] = "-i";

arguments[2] = inputPath;

arguments[3] = "-ss";

arguments[4] = "0";

arguments[5] = "-t";

arguments[6] = durationChar;

arguments[7] = "-vcodec";

arguments[8] = "copy";

arguments[9] = "-acodec";

arguments[10] = "aac";

arguments[11] = "-strict";

arguments[12] = "-2";

arguments[13] = "-b:a";

arguments[14] = "32k";

arguments[15] = outputPath;

int result = ffmpeg_main(numberOfArgs, arguments);

其中inputpath和outputpath是文件路径。经测试,这两个路径不支持asset-library://协议和file:// 协议,所以如果是要用相册的文件,我目前的解决办法是把它拷贝到沙盒里面。

6. 改关闭进程为关闭线程

如果顺利进行到了第5步,在app中是能够用命令行处理视频了,但会出现一个问题,app会退出。经肖大神提醒,发现了命令行执行完毕之后会退出进程。而iOS下只能启动一个进程,因此必须改关闭进程为关闭线程,或者直接把关闭进程的方法给注掉。

在ffmpeg.c中可以看到,执行退出进程的方法是exit_program,定位到了cmdutils.c中执行了c语言的exit方法。这里我将它改为了pthread_exit(需要添加#include 头文件)。在xcode项目中使用时,则可以用NSThread来新开一个线程,执行完毕之后,把线程关闭了即可。再使用NSThreadWillExitNotification通知,即可监听线程退出的情况。

7. 修复ffmpeg.c里面的一个bug

在实际项目中,可能需要多次调用命令行,但在多次调用命令行的过程中,发现ffmpeg.c的代码中会访问空属性导致程序崩溃。逐步debug后发现,很多指针已经置空了,但它们的计数却没有置零,不知道是不是ffmpeg.c的一个bug。修复方法如下:在ffmpeg_cleanup方法下,将各个计数器置零,包括:

nb_filtergraphs

nb_output_files

nb_output_streams

nb_input_files

nb_input_streams

置零之后,重复使用ffmpeg_main方法一切正常。

关于ffmpeg代码和ffmpeg代码提取视频的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

版权说明:如非注明,本站文章均为 AH站长 原创,转载请注明出处和附带本文链接;

本文地址:http://ahzz.com.cn/post/25876.html


取消回复欢迎 发表评论:

分享到

温馨提示

下载成功了么?或者链接失效了?

联系我们反馈

立即下载