philm-iOS-wiki
  • 介绍
  • 网络层
    • 说明
  • UI
    • 说明
    • 在ios7以前使用ColorSpace的坑
    • UITableView偏移异常问题
    • drawRect时单独设置文字阴影无效
    • Xcode9下相册访问权限问题
    • 避免同时点击多个Button
    • scroll上的button延迟响应问题
    • uibutton触发边界事件
    • ios 11 上tableview 改动
    • YYImage 显示指定区域的图片
  • 数据持久化
    • 说明
  • 其它
    • 取消延迟执行之坑
    • NSString 转换 float 的精度问题
  • 每周阅读
    • 目录
    • 深入思考NSNotification
    • gitBook使用小助手
    • iOS App签名的原理
    • 响应链
    • iOS10跳转系统到设置页
    • SDWebImage下载高清图内存问题
    • iOS圆角避免离屏渲染
    • 常用的延时调用
    • iOS 神经网络
    • SDWebImage缓存策略
    • 3Dtouch
    • 为什么 Objective-C 对象存储在堆上而不是栈上
    • 深入浅出理解视频编码H264结构
    • CATextLayer学习
    • cocoaPods
    • 任意网站支持RSS
    • Metal简介
    • 动态更改icon
    • CAReplicatorLayer
    • 增加点击间隔
    • 勒索病毒当道的时代
    • iOS常用宏定义
    • Metal实现YUV转RGB渲染视频
    • 获取当前下载的app及下载进度
    • OpenGL ES 三种类型修饰 uniform attribute varying
    • 技术部门引入OKR
    • 基于runloop的线程保活、销毁与通信
    • 深入理解哈希表
    • TOLL-FREE BRIDGING 和 UNMANAGED
    • 开发者能拿到的标识符
    • Swift自定义LOG
    • 系统通知整理
    • iOS 中的 imageIO 与 image 解码
    • CGImageRef基本介绍及方法说明
    • Swift 3.0 语法
    • webview加载部分网页
    • 在CAAnimation中暂停动画
    • 把代码迁移到协调器上
    • ios11API更新整理
    • 非越狱iOS设备的远程控制实现原理
    • 关于本地化
    • swift命名空间
    • CoreML与coremltools体验
    • 力学动画
    • Swift 4官方文档中文版: The Basic(上)
    • swift 中的KVO用法
    • GPUImage的图像形变设计(简单形变部分)
    • iOS响应式架构
    • 移动端图片上传旋转、压缩的解决方案
    • AVFoundation使用指南AVAssert使用
    • 过渡动画
    • 谈谈 MVX 中的 Model
    • AVFoundation编程-AVPlayer使用
    • GPUImage的图像形变设计(复杂形变部分)
    • What's New in LLVM 9
    • ios的事件机制
    • GPUImage源码解读(一)
    • GPUImage源码解读(二)
    • iOS 启动优化
    • 模块化 Swift 中的状态
    • swift中的let和var背后的编程模式
    • Swift Runtime动态性分析
    • RAC下的响应式编程
    • GPUImage源码解读(三)
    • 如何准确判断webView是否加载完成
    • NSObject的+load和+initialize详解
    • ios8以后设置启动图
    • GPUImage源码解读(四)
    • Swift自动闭包
    • IOS11新特性
    • GPUImage源码解读(五)
    • 理解 OC 内部的消息调用、消息转发、类和对象
    • 修饰符
    • IOS 切面统计事件解耦
    • GPUImage源码解读(六)
    • CoreImage介绍
    • 影响Core Animation性能的原因
    • Instruments中的动画工具选项介绍
    • GPUImage源码解读(七)
    • Xcode 7新的特性Lightweight Generics 轻量级泛型与__kindof修饰符
    • GPUImage源码解读(八)
    • Core Image之自定 Filter
    • iOS通用链接
    • 谈nonatomic非线程安全问题
    • 深拷贝与浅拷贝
    • CIKernel 介绍
    • iOS11适配
    • GPUImage源码解读(九)
    • CVPixelBufferCreate使用的坑
    • ios一窥并发底层
    • ARKit进阶:物理世界
    • ARKit的工作原理及流程介绍
    • UI线程卡顿监控
    • FBKVOController使用
    • GPUImage源码解读(十)
    • WKWebView在ios11崩溃问题解决方法
    • 微信iOS SQLite源码优化实践
    • HEIF 和 HEVC 研究
    • 谈谈 iOS 中图片的解压缩
    • 提升 iOS 开发效率! Xcode 9 内置模拟器的9个技巧
    • ObjC和JavaScript的交互,在恰当的时机注入对象
    • iOS数据保护
    • iOS11中网络层的一些变化(Session707&709脱水版)
    • GPUImage源码解读(十一)
    • 一种避免 iOS 内存碎片的方法
    • pods的原理
    • GPUImage源码解读(十二)
    • GPUImage源码解读(十三)
    • iOS 11 Layout的新特性
    • iOS应用瘦身方法思路整理
    • GPUImage源码解读(十四)
    • CAEmitterLayer属性介绍
    • 浅析移动蜂窝网络的特点及其省电方案
    • 如何在 table view 中添加 3D Touch Peek & Pop 功能
    • iOS中锁的介绍与使用
    • NSLog效率低下的原因及尝试lldb断点打印Log
    • GPUImage源码解读(十五)
    • GPUImage源码解读(十六)
    • CADisplayLink
    • GPUImage源码解读(十七)
    • CADisplayLink
    • 老生常谈category增加属性的几种操作
    • 30行代码演示dispatch_once死锁
    • GPUImage源码解读(十八)
    • YYImage设计思路
    • GPUImage源码解读(十九)
    • 深入理解Tagged Pointer
    • iOS 11:WKWebView内容过滤规则详解
    • Swift语法对编译速度的影响
    • GPUImage源码解读(二十)
    • GPUImage源码解读(二十一)
    • iOS App间常用的五种通信方式
    • YYCache深入学习
    • 冲顶大会插件
    • iOS高性能图片架构与设计
    • YUV颜色编码解析
    • iOS传感器:App前后台切换后,获取敏感信息使用touch ID进行校验
    • GPUImage源码解读(二十二)
    • GPUImage源码解读(二十三)
    • 从零开始的机器学习 - Machine Learning(一)
    • 从零开始的机器学习 - Machine Learning(二)
    • GPUImage源码解读(二十四)
    • Objective-C消息转发机制
    • iOS 程序 main 函数之前发生了什么
    • MMKV--基于 mmap 的 iOS 高性能通用 key-value 组件
    • Objective-C 消息发送与转发机制原理
    • 谈Objective-C block的实现
    • GPUImage源码解读(二十五)
    • podfile语法
    • 轻量级低风险 iOS 热更新方案
    • 使用objection来模块化开发iOS项目
    • swift 中delegate的使用注意
    • 使用appledoc自动生成api文档
    • UITextChecker的使用
    • ARKit 如何给SCNNode贴Gif图片
    • Unity与iOS平台交互和原生插件开发
    • SceneKit编程珠玑
Powered by GitBook
On this page
  • AVFoundation编程指南2-用AVPlayer播放视频
  • 播放Assets
  • 加载基于文件的asset,有如下几步:
  • 播放一个item
  • 改变播放的rate
  • seeking-重定位播放头
  • 播放多个items
  • 监测播放状态
  • status改变后的处理方式
  • 监听视频准备播放的状态
  1. 每周阅读

AVFoundation编程-AVPlayer使用

Previous谈谈 MVX 中的 ModelNextGPUImage的图像形变设计(复杂形变部分)

Last updated 7 years ago

AVFoundation编程指南2-用AVPlayer播放视频

原文地址:

控制assets的播放,你可以使用AVPlayer对象。在播放的过程中,你可以使用AVPlayerItem对象来管理asset的呈现,AVPlayerItemTrack来管理track。要显示视频,需要使用AVPlayerLayer。

播放Assets

一个播放器就是控制asset播放的对象,比如开始和结束,seek到指定的时间。可以使用AVPlayer来播放单个asset,用AVQueuePlayer来播放多个连续的asset。 一个player向你提供播放的信息,如果需要,你通过player的状态同步显示到界面上。你也可以直接把player的输出显示笑傲指定的动画层(AVPlayerLayer或者AVSynchronizedLayer)。

多个layer的情况:你可以创建多个AVPlayerLayer对象,但是只有最近创建的layer才会显示视频画面。

虽然是播放asset,但是不能直接把asset传给AVPlayer对象,你应该提供AVPlayerItem对象给AVPlayer。一个player item管理着和它相关的asset。一个player item包括player item tracks-(AVPlayerItemTrack对象,表示asset中的tracks)。他们之间的关系如下图:

这表明你可以同时用不同的player播放同一个asset,如下图显示,两个不同的player播放同一个asset。

你可以用一个存在asset直接初始化player,或者直接用URL初始化。和AVAsset一样,简单的初始化一个player并不表示可以马上进行播放,你需要观察它的status(通过kvo)来决定是否可以播放。

处理不同类型的asset

配置asset的方式由需要播放的asset的类型决定的。概括的说,有两种方式:基于文件的asset,基于流式的(http live streaming format)

加载基于文件的asset,有如下几步:

  • 使用AVURLAsset创建一个asset。

  • 使用创建的asset来创建一个AVPlayerItem对象item

  • item和AVPlayer关联

  • 等待item的状态,知道可以播放。

创建基于HTTP live stream的播放器。 用url初始化一个AVPlayerItem对象。(http live stream的情况下不能直接创建AVAsset对象)

NSURL *url = [NSURL URLWithString:@"<#Live stream URL#>];
// You may find a test stream at <http://devimages.apple.com/iphone/samples/bipbop/bipbopall.m3u8>.
self.playerItem = [AVPlayerItem playerItemWithURL:url];
[playerItem addObserver:self forKeyPath:@"status" options:0 context:&ItemStatusContext];
self.player = [AVPlayer playerWithPlayerItem:playerItem];

当你关联一个player item到player的时候,这个播放器开始准备播放。当它可以播放的时候,player item会创建AVAsset和AVAssetTrack对象,这些对象可以用来检查live stream的内容。 为了获取stream的时间,可以通过kvo的方式观察player item的duration的属性。当可以播放的时候,这个属性被设置为正确的值,这时就可以获取时间。

注意:只能在iOS4.3之后使用player item的duration属性。下面这种获取duration的方法适用于所有的iOS系统版本:当player item的状态变为AVPlayerItemStatusReadyToPlay时,duration可以通过下面代码获取
[[[[[playerItem tracks] objectAtIndex:0] assetTrack] asset] duration];

如果仅仅是想播放一个live stream,可以直接用下面的简短代码实现:

self.player = [AVPlayer playerWithURL:<#Live stream URL#>];
[player addObserver:self forKeyPath:@"status" options:0 context:&PlayerStatusContext];

正如assets和items一样,初始化一个player之后并不表明可以马上播放,你需要观察player的status属性,当status变为AVPlayerStatusReadyToPlay时表示可以播放了,你也需要观察curretItem属性来访问player item。

如果你不能确定你用的url是什么类型,可以用下面的方法检测: 1、尝试用url初始化AVURLAsset,然后load它的tracks key,如果tracks load 成功,表明你可以用这个asset创建player item。 2、如果第一步失败,直接用url创建AVPlayerItem,观察status属性,看是否有可播放的状态。

播放一个item

如果想要播放,你可以想player发送play消息,如下代码:

- (IBAction)play:sender {
[player play];
}

除了播放之外,还可以管理player的各种信息,比如rate和播放头,你也可以监控player的状态,这很有用,比如说你需要根据播放的状态来更新界面。

改变播放的rate

可以改变播放的rate,代码如下:

aPlayer.rate = 0.5;
aPlayer.rate = 2.0;

rate=1.0表示正常的播放。0.0表示暂停。 player item支持逆向播放,当rate设置为负数的时候就是逆向播放.playeritem的 canPlayReverse 表示rate为-1.0,canPlaySlowReverse表示rate的范围是-0.0到-1.0,canPlayFastReverse表示rate小于-1.0f。

seeking-重定位播放头

可以使用seekToTime:重定位播放头到指定的时间,如下代码: CMTime fiveSecondsIn = CMTimeMake(5, 1); [player seekToTime:fiveSecondsIn];

seekTime:不能精确定位,如果需要精确定位,可以使用seekToTime:toleranceBefore:toleranceAfter:,代码如下:

CMTime fiveSecondsIn = CMTimeMake(5, 1);
[player seekToTime:fiveSecondsIn toleranceBefore:kCMTimeZero toleranceAfter:kCMTimeZero];

当tolerance=0的时候,framework需要进行大量解码工作,比较耗性能,所以,只有当你必须使用的时候才用这个方法,比如开发一个复杂的多媒体编辑应用,这需要精确的控制。

当播放结束后,播放头移动到playerItem的末尾,如果此时调用play方法是没有效果的,应该先把播放头移到player item起始位置。如果需要实现循环播放的功能,可以监听通知AVPlayerItemDidPlayToEndTimeNotification,当收到这个通知的时候,调用seekToTime:把播放头移动到起始位置,代码如下:

// Register with the notification center after creating the player item.
[[NSNotificationCenter defaultCenter]
addObserver:self
selector:@selector(playerItemDidReachEnd:)
name:AVPlayerItemDidPlayToEndTimeNotification
object:<#The player item#>];

- (void)playerItemDidReachEnd:(NSNotification *)notification {
[player seekToTime:kCMTimeZero];
}

播放多个items

可以使用AVQueuePlayer播放多个items,AVQueuePlayer是AVPlayer的子类,可以用一个数组来初始化一个AVQueuePlayer对象。代码如下:

NSArray *items = <#An array of player items#>;
AVQueuePlayer *queuePlayer = [[AVQueuePlayer alloc] initWithItems:items];

和AVPlayer一样,直接调用play方法来播放,queue player顺序播放队列中的item,如果想要跳过一个item,播放下一个item,可以调用方法advanceToNextItem。

可以对队列进行插入和删除操作,调用方法insertItem:afterItem:, removeItem:, 和 removeAllItems。正常情况下当插入一个item之前,应该检查是否可以插入,通过使用canInsertItem:afterItem:方法,第二个参数传nil,代码如下:

AVPlayerItem *anItem = <#Get a player item#>;
if ([queuePlayer canInsertItem:anItem afterItem:nil]) {
[queuePlayer insertItem:anItem afterItem:nil];
}

监测播放状态

可以监测player和player item的状态,这个非常有用。比如: · 如果用户切换到其他应用程序,则需要把player的rate设为0.0 · 如果播放的是远程媒体,当收到更多的数据的时候,player的loadedTimeRange和seekableTimeRange属性将会不断改变。 · 当player播放的是http live stream的时候,player的currentItem会不断改变。 · 播放http live stream的时候,player item的tracks属性也不断改变。这会发生在player改变编码方式的时候。 · 当播放失败的时候,player或者player item的status属性也会改变。

可以使用kvo来监测上述改变。

注意:只能在主线程注册和取消kvo

status改变后的处理方式

当player或者player item的状态status改变,系统会发送一个kvo的notification,如果一个对象由于一些原因不能播放,stauts会变成AVPlayerStatusFailed 或者 AVPlayerItemStatusFailed ,在这种情况下,这个对象的error属性会被附上一个error类型的对象,这个error对象描述了失败的原因。

AV Foundation不会指定这个notification是由哪个线程发出的,所以,如果你要更新UI,就必须确保更新的代码在主线程中调用,下面的代码表示收到status更新的处理方式:

- (void)observeValueForKeyPath:(NSString *)keyPath ofObject:(id)object
change:(NSDictionary *)change context:(void *)context {

if (context == <#Player status context#>) {
AVPlayer *thePlayer = (AVPlayer *)object;
if ([thePlayer status] == AVPlayerStatusFailed) {
NSError *error = [<#The AVPlayer object#> error];
// Respond to error: for example, display an alert sheet.
return;
}
// Deal with other status change if appropriate.
}
// Deal with other change notifications if appropriate.
[super observeValueForKeyPath:keyPath ofObject:object
change:change context:context];
return;
}

监听视频准备播放的状态

可以监听AVPlayerLayer的readyForDisplay属性,当layer有可显示的内容时,会发送一个notification。

跟踪时间 可以使用addPeriodicTimeObserverForInterval:queue:usingBlock: 或者 addBoundaryTimeObserverForTimes:queue:usingBlock:来跟踪播放的进度,根据这个进度,你可以更新UI,比如播放了多少时间,还剩多少时间,或者其他的UI状态。 · addPeriodicTimeObserverForInterval:queue:usingBlock:,这个方法传入一个CMTime结构的时间区间,每隔这个时间段的时候,block会回调一次,开始和结束播放的时候block也会回调一次。 · addBoundaryTimeObserverForTimes:queue:usingBlock:,这个放传入一个CMTime结构的数组,当播放到数组里面的时间点的时候,block会回调。 这两个方法都返回一个id类型的对象,这个对象必须一直被持有。可以使用removeTimeObserver:取消这个观察者。

对于这两个方法,AVFoundation不会保证每次时间点到了的时候都会回调block,如果前面回调的block没有执行完的时候,下一次就不会回调。所以,必须保证在block里面的逻辑不能太耗时。下面是使用的例子:

// Assume a property: @property (strong) id playerObserver;

Float64 durationSeconds = CMTimeGetSeconds([<#An asset#> duration]);
CMTime firstThird = CMTimeMakeWithSeconds(durationSeconds/3.0, 1);
CMTime secondThird = CMTimeMakeWithSeconds(durationSeconds*2.0/3.0, 1);
NSArray *times = @[[NSValue valueWithCMTime:firstThird], [NSValue valueWithCMTime:secondThird]];

self.playerObserver = [<#A player#> addBoundaryTimeObserverForTimes:times queue:NULL usingBlock:^{

NSString *timeDescription = (NSString *)
CFBridgingRelease(CMTimeCopyDescription(NULL, [self.player currentTime]));
NSLog(@"Passed a boundary at %@", timeDescription);
}];

播放结束 可以向通知中心注册 AVPlayerItemDidPlayToEndTimeNotification 通知,当播放结束的时候可以收到一个结束的通知。代码:

[[NSNotificationCenter defaultCenter] addObserver:<#The observer, typically self#>
selector:@selector(<#The selector name#>)
name:AVPlayerItemDidPlayToEndTimeNotification
object:<#A player item#>];
http://1199game.com/2016/10/avfoundation-2/