官方文檔 FFmpeg是一套可以用來記錄、轉換數字音頻、視頻,并能將其轉化為流的開源計算機程序。它提供了錄制、轉換以及流化音視頻的完整解決方案。 FFmpeg的代碼是包括兩部分的,一部分是library,一部分是tool。api都是在library里面,如果直接調api來操作視頻的話,就需要寫c或者c++了。另一部分是tool,使用的是命令行,則不需要自己去編碼來實現視頻操作的流程。
1、各模塊的功能:
libavformat:用于各種音視頻封裝格式的生成和解析; libavcodec:用于各種類型聲音、圖像編解碼; libavutil:包含一些公共的工具函數; libswscale:用于視頻場景比例縮放、色彩映射轉換; libpostproc:用于后期效果處理; ffmpeg:該項目提供的一個工具,可用于格式轉換、解碼或電視卡即時編碼等; ffsever:一個 HTTP 多媒體即時廣播串流服務器; ffplay:是一個簡單的播放器,使用ffmpeg 庫解析和解碼,通過SDL顯示;
本文主要介紹已經編譯好FFmpeg庫的情況下怎么集成到IOS項目中并使用FFmpeg命令,至于怎么編譯教程很多我懶得貼了可以自行搜索。
2、導入iOS工程的配置及使用命令行工具的配置
1、編譯成功之后會得到FFmpeg-iOS這么一個目錄,里面有lib、include兩個子目錄,把FFmpeg-iOS直接拖進工程里
2、添加需要的系統依賴庫,Build Phases — Link Binary With Libraries,添加 libz.tbd、libbz2.tbd、libiconv.tbd、CoreMedia.framework、VideoToolbox.framework、AudioToolbox.framework
3、設置 Header Search Paths 路徑,指向項目中include目錄
- 到這里command+B已經可以編譯成功了,只使用FFmpeg API的話配置到這里就可以了,下面關于使用命令行的配置基于FFmpeg4.2版本,不同的版本之間可能會存在一些小的差異
4、找到源碼ffmpeg-4.2/fftools目錄下的這些文件導入項目中,如下圖
config.h文件在ffmpeg-4.2文件夾同級的scratch文件夾中,scratch下面有不同架構的,真機選用arm64的即可
C++音視頻學習資料免費獲取方法:關注音視頻開發T哥,點擊「鏈接」即可免費獲取2023年最新C++音視頻開發進階獨家免費學習大禮包!
5、修改命令行工具的代碼
- 全局搜索這些頭文件,有引用的地方全部注釋
#include "compat/va_copy.h"
#include "libavresample/avresample.h"
#include "libpostproc/postprocess.h"
#include "libavutil/libm.h"
#include "libavutil/time_internal.h"
#include "libavutil/internal.h"
#include "libavformat.NETwork.h"
#include "libavcodec/mathops.h"
#include "libavformat/os_support.h"
#include "libavutil/thread.h"
- ffmpeg.c文件中,注釋下面的函數調用 并導入系統頭文件 #include <pthread.h>
nb0_frames = nb_frames = mid_pred(ost->last_nb0_frames[0],
ost->last_nb0_frames[1],
ost->last_nb0_frames[2]);
ff_dlog(NULL, "force_key_frame: n:%f n_forced:%f prev_forced_n:%f t:%f prev_forced_t:%f -> res:%fn",
ost->forced_keyframes_expr_const_values[FKF_N],
ost->forced_keyframes_expr_const_values[FKF_N_FORCED],
ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_N],
ost->forced_keyframes_expr_const_values[FKF_T],
ost->forced_keyframes_expr_const_values[FKF_PREV_FORCED_T],
res);
- cmdutils.c文件中print_all_libs_info函數里注釋以下兩行代碼
PRINT_LIB_INFO(avresample, AVRESAMPLE, flags, level);
PRINT_LIB_INFO(postproc, POSTPROC, flags, level);
- ffmpeg_opt.c文件中注釋以下兩行代碼
{ "videotoolbox", videotoolbox_init, HWACCEL_VIDEOTOOLBOX, AV_PIX_FMT_VIDEOTOOLBOX },
{ "videotoolbox_pixfmt", HAS_ARG | OPT_STRING | OPT_EXPERT, { &videotoolbox_pixfmt}, "" },
- 解決mian函數重復的問題,修改如下
ffmpeg.h 文件下增加函數聲明:
int ffmpeg_main(int argc, char **argv);
ffmpeg.c 文件中:
main函數修改為ffmpeg_main;主要是為了避免兩個main函數存在
- 修改執行一次 ffmpeg_main 方法后 App閃退問題
看到一些文章里說修改cmdutils.c中的exit_program函數,注釋掉退出進程的代碼,本人實測還是有問題,
最終修改是 ffmpeg.c文件中把所有調用 exit_program 函數的地方改為調用 ffmpeg_cleanup 函數就可以了。
注意:當前全部改成ffmpeg_cleanup會出現的一些情況,比如執行查看視頻信息的命令,這個命令里面沒有設置輸出路徑,原來的代碼里走到判斷沒有輸出路徑的分支直接調用exit_program就退出了進程,改成調用ffmpeg_cleanup后代碼會繼續往下走導致一些訪問空指針的崩潰,這種個別情況自己再針對進行處理就好了,不過一般使用場景中都會有輸入和輸出
- 修改多次調用 ffmpeg_main 時,訪問空指針的問題:
ffmpeg.c 文件中
在 ffmpeg_cleanup 方法中重置計數器,在 term_exit(); 這行代碼前添加重置計數的代碼
修改后如下:
nb_filtergraphs = 0;
nb_output_files = 0;
nb_output_streams = 0;
nb_input_files = 0;
nb_input_streams = 0;
term_exit();
以上這些都修改完,command+B,編譯成功!可以使用命令行了,在使用的地方引入頭文件 #import "ffmpeg.h"即可。
3、命令行的使用及處理進度回調
我這里封裝了一個使用cmd的方法,代碼如下
#import "HEFFmpegTools.h"
#import "ffmpeg.h"
@implementation HEFFmpegTools
///執行ffmpeg指令," "為分割標記符
+ (void)runCmd:(NSString *)commandStr completionBlock:(void(^)(int result))completionBlock {
dispatch_async(dispatch_get_global_queue(0, 0), ^{
// 根據 " " 將指令分割為指令數組
NSArray *argv_array = [commandStr componentsSeparatedByString:(@" ")];
// 將OC對象轉換為對應的C對象
int argc = (int)argv_array.count;
char** argv = (char**)malloc(sizeof(char*)*argc);
for(int i=0; i < argc; i++) {
argv[i] = (char*)malloc(sizeof(char)*1024);
strcpy(argv[i],[[argv_array objectAtIndex:i] UTF8String]);
}
// 傳入指令數及指令數組,result==0表示成功
int result = ffmpeg_main(argc,argv);
NSLog(@"執行FFmpeg命令:%@,result = %d",commandStr,result);
dispatch_async(dispatch_get_main_queue(), ^{
completionBlock(result);
});
});
}
@end
使用runCmd函數的示例代碼,把一個視頻旋轉90度并保存到相冊
let videoPath = NSSearchPathForDirectoriesInDomains(.cachesDirectory, .userDomainMask, true).first! + "/tempvideo.mp4"
let inputVideo = "(Bundle.main.bundlePath)/ffm_video2.mp4"
let transformCmd = "ffmpeg -i (inputVideo) -y -vf rotate=PI/2 (videoPath)";
HEFFmpegTools.runCmd(transformCmd) { (result) in
if FileManager.default.fileExists(atPath: videoPath) {
print("保存到相冊");
UISaveVideoAtPathToSavedPhotosAlbum(videoPath, nil, nil, nil)
}
}
獲取處理進度 1、任意創建一個Cocoa Touch Class 作為在.c里面引用的橋接文件,.h文件代碼全部刪掉,聲明函數
///獲取輸入源文件的時長
void setDuration(long long duration);
///獲取當前的處理進度
void setCurrentTimeFromProgressInfo(char *progressInfo);
.m中刪除代碼只保留頭文件的引用,實現如下
#import "HEFFmpegBridge.h"
#import <Foundation/Foundation.h>
static long long totalDuration = 0;
void setDuration(long long duration) {
//duration的精度到微秒
//比如視頻長度 00:00:24.53,duration會是24533333
//比如視頻長度 00:01:16.10,duration會是76100000
printf("n fileDuration = %lldn",duration);
totalDuration = duration;
}
void setCurrentTimeFromProgressInfo(char *progressInfo) {
//progressInfo
//e.g. frame= 1968 fps=100 q=31.0 size= 4864kB time=00:01:06.59 bitrate= 598.3kbits/s speed=3.38x
//printf("n ctime = %sn",progressInfo);
NSString *progressStr = [NSString stringWithCString:progressInfo encoding:NSUTF8StringEncoding];
NSArray *infoArray = [progressStr componentsSeparatedByString:@" "];
NSString *timeString = @"";
for (NSString *info in infoArray) {
if ([info containsString:@"time"]) {
timeString = [info componentsSeparatedByString:@"="].lastObject;//e.g. 00:01:16.10,精確到十毫秒
}
}
NSArray *hmsArray = [timeString componentsSeparatedByString:@":"];
if (hmsArray.count != 3) {
return;
}
long long hours = [hmsArray[0] longLongValue];
long long minutes = [hmsArray[1] longLongValue];
long long seconds = 0;
long long mseconds = 0;
NSArray *tempArr = [hmsArray[2] componentsSeparatedByString:@"."];
if (tempArr.count == 2) {
seconds = [tempArr.firstObject longLongValue];
mseconds = [tempArr.lastObject longLongValue];
}
long long currentTime = (hours * 3600 + minutes * 60 + seconds) * 1000000 + mseconds * 10000;
double progress = [[NSString stringWithFormat:@"%.2f",currentTime * 1.0 / totalDuration] doubleValue];
NSLog(@"progress = %.2f",progress);
// //ffmpeg操作是在子線程中執行的
// dispatch_async(dispatch_get_main_queue(), ^{
// //更新進度UI
// });
}
從上面的代碼可以看到,處理進度的回調主要是通過setDuration獲取輸入源文件的總時長,
setCurrentTimeFromProgressInfo獲取當前已處理的時長,然后根據兩者比例計算出當前的進度,細節直接看代碼
2、什么時機調用這兩個函數?
- ffmpeg_opt.c文件中 open_input_file函數里在err = avformat_open_input(&ic, filename, file_iformat, &o->g->format_opts); 之后調用 setDuration(ic->duration);
- ffmpeg.c文件中 print_report函數里 fflush(stderr); 前調用 setCurrentTimeFromProgressInfo(buf.str);
看完這些覺得麻煩也可以直接用我編譯配置好的庫,導入可以直接使用 github地址,如果覺得有幫助給個??吧
4、命令行使用的整理
命令基本格式:ffmpeg [global_options] {[input_file_options] -i input_url} ... {[output_file_options] output_url} ...
常見的參數配置: -f 強制指定編碼格式 -i 輸出源 -t 指定輸入輸出時長 -r 指定幀率,即1S內的幀數 -threads 指定線程數 -c:v 指定視頻的編碼格式 -ss 指定從什么時間開始 -b:v 指定比特率 -b:v 2500k 指定輸出文件的視頻比特率為 2500kbit/s -s 指定分辨率 -y 覆蓋輸出 -filter 指定過濾器 -vf 指定視頻過濾器 -an 指定去除對音頻的影響 -vn 指定去除對視頻的影響 -sn 指定去除對字幕的影響 -dn 指定去除對數據流的影響 -codec: copy 復制所有流而無需重新編碼