大家好,我是编程小6,很高兴遇见你,有问题可以及时留言哦。
实现直播过程中共享屏幕分为两个步骤:屏幕数据采集和流媒体数据推送。前对于 iOS 来说,屏幕采集需要系统的权限,受制于iOS系统的限制,第三方 app 并没有直接录制屏幕的权限,必须通过系统的功能来实现。
本文将描述iOS系统的屏幕共享的应用、实现、限制、实现细节等方面调研结果。(注:由于iOS 10和之前的系统只支持App内录制屏幕,所以只做简单的介绍,不做详细说明)
屏幕共享早起出现在视频会议当中,后来在一些游戏直播中也出现了大规模应用,Apple早期不支持屏幕共享,但随着直播的盛行,Apple也是根据用户的需求,给予了屏幕共享的支持,推出了 ReplayKit 库来迎合这种场景。
市面上的屏幕共享的场景大致分类如下:
iOS系统上实现屏幕共享的技术,主要在于系统各个版本的差异,下面将针对各个系统版本实现方式和限制性等方面进行比较。 首先,由于需要使用手机的相机和麦克等硬件,无法在模拟器上调试使用。首先我们了解下目前各个版本的覆盖率情况。
根据苹果官网的数据显示,截止到2021年6月,iOS系统各个系统版本占有率大致如下图所示,可见,目前iOS13 及以下系统的用户覆盖率不足2%,而iOS14系统的覆盖率约为 90%,iOS13系统的覆盖率约为8 %。顾为了兼顾老版本,目前市面上应用一般会兼容到 iOS 9。
iOS8 以及以前的版本,系统没有提供相应的功能,通过激活成功教程系统的功能调用私有的API来实现。由于 iOS8 太过古老而且运行 iOS8 系统的设备也基本上支撑不起来直播的功能,我们这里不做详细讨论,有兴趣的可以研究一下。
Apple 在iOS 9 推出了 ReplayKit 框架,提供了录屏功能,但是限制是只能录制本App内的屏幕。录制完成后会生成一个视频文件,只能通过 RPPreviewViewController 来预览,编译生成的文件,录制过程中无法获取数据,只能将最终录制完毕的整个mp4文件提供给开发者,所以实际上并非真正的屏幕的直播共享,无法保证实时性。
iOS 10 Apple 推出了 Broadcast Upload Extention 和 Broadcast Setup UI Extention,来解决录屏的问题。
首先介绍一下App Extension,官方文档(Extension的官方文档)。Extension是对 App 的扩展,在一定程度上打破了沙盒的限制,提供了应用间通信的可能。Extension 是一个独立运行的进程,有自己的生命周期。下图所示:
虽然iOS 10 系统解决了之前系统的一系列弊病,但是仍然没能解决只能录制当前app的屏幕内容的问题,这样会限制一些应用的使用场景。
iOS 11 的发布正式直播兴盛的年代,为了迎合市场需求,Apple 提供了跨 app 录屏的功能,可以实现录取整个屏幕的功能。 虽然ReplayKit2 已经可以满足开发者的多数需求,但是对于用户来说,这个版本在实现屏幕直播时,需要用户提前在手机设置中配置出屏幕录制的访问控制权限,使屏幕录制按钮显示在系统的上拉管理菜单中,并且在录制时,上拉底部菜单调出快捷管理菜单,并且长按屏幕录制圆形按钮才能开始录制和直播。复杂的操作流程,让用户使用的门槛增高。所以在iOS 11 上屏幕共享功能也显得很单薄。
iOS 12 在iOS11的基础上进行了优化,并提供了RPSystemBroadcastPickerView,解决了录制屏幕,用户无需在控制中心手动启动。
结合上面iOS各个系统版本对屏幕录制的限制的分析,从版本稳定性和发布可靠性角度来说,我们应该从iOS12系统开始提供屏幕录制功能,而之前的系统版本不做兼容。如果只录制 app 页面进行直播,那么系统可兼容到iOS 9。
anyRTC 视频屏幕共享可有两种实现方式:
思路参考:博客
大致的思路是:本地起一个socket,通过tcp的形式传输到host app,复杂的操作在host app 中进行,有效解决Extension 50M的限制问题。
思路:在Extension中直接使用 SDK ,只做发流,不接收流。同时也要注意Extension 50M的问题(1:应用限制横竖屏直播,要么横盘、要么竖屏,应用横竖屏切换容易导致内存突增。2:低性能机器限制视频的帧率(1~10帧))
设置频道属性为直播模式,并设置为主播角色,启用视频模块
// 实例化 rtc 对象
rtcKit = [ARtcEngineKit sharedEngineWithAppId:appId delegate:self];
[rtcKit setChannelProfile:ARChannelProfileLiveBroadcasting];
[rtcKit setClientRole:ARClientRoleBroadcaster];
[rtcKit enableVideo];
// 获取当前屏幕的最佳分辨率
CGSize screenSize = [[UIScreen mainScreen] currentMode].size;
CGSize boundingSize = CGSizeMake(720, 1280);
CGFloat mW = boundingSize.width / screenSize.width;
CGFloat mH = boundingSize.height / screenSize.height;
if( mH < mW ) {
boundingSize.width = boundingSize.height / screenSize.height * screenSize.width;
}
else if( mW < mH ) {
boundingSize.height = boundingSize.width / screenSize.width * screenSize.height;
}
// 视频编码配置
ARVideoEncoderConfiguration *config = [[ARVideoEncoderConfiguration alloc] init];
config.dimensions = boundingSize;
config.bitrate = 1500;
config.frameRate = 10;
config.orientationMode = ARVideoOutputOrientationModeAdaptative;
[rtcKit setVideoEncoderConfiguration:config];
// 配置外部视频源
[rtcKit setExternalVideoSource:YES useTexture:YES pushMode:YES];
// 推送外部音频帧
[rtcKit enableExternalAudioSourceWithSampleRate:48000 channelsPerFrame:2];
作为屏幕共享端只需要发流,不需要接收流。
// 禁止接收所有音视频流
[rtcKit muteAllRemoteVideoStreams:YES];
[rtcKit muteAllRemoteAudioStreams:YES];
// 获取 host app 中的用户Id,在进行一层组装,标记为某个人的辅流
NSString *uid = [NSString stringWithFormat:@"%@_sub",self.userId];
// 加入频道
[rtcKit joinChannelByToken:nil channelId:self.channelId uid:uid joinSuccess:^(NSString * _Nonnull channel, NSString * _Nonnull uid, NSInteger elapsed) {
NSLog(@"joinSuccess");
}];
- (void)processSampleBuffer:(CMSampleBufferRef)sampleBuffer withType:(RPSampleBufferType)sampleBufferType {
switch (sampleBufferType) {
case RPSampleBufferTypeVideo:
{
// 处理视频数据
CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
if (pixelBuffer) {
CMTime timestamp = CMSampleBufferGetPresentationTimeStamp(sampleBuffer);
ARVideoFrame *videoFrame = [[ARVideoFrame alloc] init];
videoFrame.format = 12;
videoFrame.time = timestamp;
videoFrame.textureBuf = pixelBuffer;
videoFrame.rotation = [self getRotateByBuffer:sampleBuffer];
[rtcKit pushExternalVideoFrame:videoFrame];
}
}
break;
case RPSampleBufferTypeAudioApp:
// 处理音频数据,音频由App产生
[rtcKit pushExternalAudioFrameSampleBuffer:sampleBuffer type:ARAudioTypeApp];
break;
case RPSampleBufferTypeAudioMic:
// 处理音频数据,音频由麦克风产生
[rtcKit pushExternalAudioFrameSampleBuffer:sampleBuffer type:ARAudioTypeMic];
break;
default:
break;
}
}
经过上述步骤,便可实现屏幕共享功能。为了方便开发者更能快速上手,可以参考demo快速上手。
iOS 屏幕共享
Android 屏幕共享