首页 > 系统 > iOS > 正文

iOS 音视频合成, AVMutableComposition来合成音视频

2019-11-06 09:53:55
字体:
来源:转载
供稿:网友

音视频主要是利用AVFoundation框架下的AVMutableComposition来合成音视频.

在AVMutableComposition中传入两个数据流,一个是音频一个是视频,之后调用合成方法就可以了

上代码

storyBoard中拖入一个button,一个imageView

这里写图片描述

为了效果好可以将IamgeView的背景色调为黑色

然后在ViewController中添加以下代码

#import "ViewController.h"#import <AVFoundation/AVFoundation.h>#import "MBPRogressHUD+MJ.h"@interface ViewController ()/** 用于播放 */@property (weak, nonatomic) IBOutlet UIImageView *imageView;@end@implementation ViewController- (void)viewDidLoad { [super viewDidLoad];}- (IBAction)mergeAction:(UIButton *)sender { [self merge];}// 混合音乐- (void)merge{ // mbp提示框 [MBProgressHUD showMessage:@"正在处理中"]; // 路径 NSString *documents = [NSHomeDirectory() stringByAppendingPathComponent:@"Documents"]; // 声音来源 NSURL *audioInputUrl = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"五环之歌" ofType:@"mp3"]]; // 视频来源 NSURL *videoInputUrl = [NSURL fileURLWithPath:[[NSBundle mainBundle] pathForResource:@"myPlayer" ofType:@"mp4"]]; // 最终合成输出路径 NSString *outPutFilePath = [documents stringByAppendingPathComponent:@"merge.mp4"]; // 添加合成路径 NSURL *outputFileUrl = [NSURL fileURLWithPath:outPutFilePath]; // 时间起点 CMTime nextClistartTime = kCMTimeZero; // 创建可变的音视频组合 AVMutableComposition *comosition = [AVMutableComposition composition]; // 视频采集 AVURLAsset *videoAsset = [[AVURLAsset alloc] initWithURL:videoInputUrl options:nil]; // 视频时间范围 CMTimeRange videoTimeRange = CMTimeRangeMake(kCMTimeZero, videoAsset.duration); // 视频通道 枚举 kCMPersistentTrackID_Invalid = 0 AVMutableCompositionTrack *videoTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid]; // 视频采集通道 AVAssetTrack *videoAssetTrack = [[videoAsset tracksWithMediaType:AVMediaTypeVideo] firstObject]; // 把采集轨道数据加入到可变轨道之中 [videoTrack insertTimeRange:videoTimeRange ofTrack:videoAssetTrack atTime:nextClistartTime error:nil]; // 声音采集 AVURLAsset *audioAsset = [[AVURLAsset alloc] initWithURL:audioInputUrl options:nil]; // 因为视频短这里就直接用视频长度了,如果自动化需要自己写判断 CMTimeRange audioTimeRange = videoTimeRange; // 音频通道 AVMutableCompositionTrack *audioTrack = [comosition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid]; // 音频采集通道 AVAssetTrack *audioAssetTrack = [[audioAsset tracksWithMediaType:AVMediaTypeAudio] firstObject]; // 加入合成轨道之中 [audioTrack insertTimeRange:audioTimeRange ofTrack:audioAssetTrack atTime:nextClistartTime error:nil]; // 创建一个输出 AVAssetExportsession *assetExport = [[AVAssetExportSession alloc] initWithAsset:comosition presetName:AVAssetExportPresetMediumQuality]; // 输出类型 assetExport.outputFileType = AVFileTypeQuickTimeMovie; // 输出地址 assetExport.outputURL = outputFileUrl; // 优化 assetExport.shouldOptimizeForNetworkUse = YES; // 合成完毕 [assetExport exportAsynchronouslyWithCompletionHandler:^{ // 回到主线程 dispatch_async(dispatch_get_main_queue(), ^{ // 调用播放方法 [self playWithUrl:outputFileUrl]; }); }];}/** 播放方法 */- (void)playWithUrl:(NSURL *)url{ // 传入地址 AVPlayerItem *playerItem = [AVPlayerItem playerItemWithURL:url]; // 播放器 AVPlayer *player = [AVPlayer playerWithPlayerItem:playerItem]; // 播放器layer AVPlayerLayer *playerLayer = [AVPlayerLayer playerLayerWithPlayer:player]; playerLayer.frame = self.imageView.frame; // 视频填充模式 playerLayer.videoGravity = AVLayerVideoGravityResizeaspect; // 添加到imageview的layer上 [self.imageView.layer addSublayer:playerLayer]; // 隐藏提示框 开始播放 [MBProgressHUD hideHUD]; [MBProgressHUD showSuccess:@"合成完成"]; // 播放 [player play];}

MBP是一个第三方提示类,如果不关心这个功能可以删除这三行代码和头文件

// mbp提示框 [MBProgressHUD showMessage:@"正在处理中"];// 隐藏提示框 开始播放 [MBProgressHUD hideHUD]; [MBProgressHUD showSuccess:@"合成完成"];

效果图

因为是gif..请自己yy出Uber视频配上五环之歌(我感觉还挺配的)

这里写图片描述

GitHub:https://github.com/Lafree317/MergeVideoAndMusic


发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表