Intel® Collaboration Suite for WebRTC
Community support and discussions on the Intel® Collaboration Suite for WebRTC (Intel® CS for WebRTC).
1146 Discussions

能否在安卓sdk自定义发布视频流的过程中,同时带上自定义采集的音频?

mah_f_
Beginner
379 Views

我们最终想实现的效果是——让LocalCustomizedStream发布自定义的本地流,音频和视频均是自定义的,即视频输入是自定义设备的采集视频,音频走自定义采集的流程,这样音频类可以将采集的录音送往存储文件流程的同时,也送一份拷贝到webrtc音频发布流程。 不知道有没有好的建议?先谢了!
目前测试的流程:
1.通过自定义自定义视频的流程,在构造方法
LocalCustomizedStream    (    VideoFrameGeneratorInterface     generator, boolean     hasAudio)   
中,
如果hasAudio设为false,此时发布的本地流,其视频为自定义视频,音频轨道为空。如果同时启动下面第2点的自定义音频采集流程,web接收方收不到任何音轨数据
如果hasAudio为true,此时发布的本地流,其视频为自定义视频,音频轨道为麦克风采集的音频。如果同时启动下面第2点的自定义音频采集流程,则LocalCustomizedStream的麦克风录制设备初始化会失败,web接收方仍然是收不到任何音轨数据。
 
2.启动自定义音频的流程,参考在安卓sdk的开发文档
的“14 Customize Audio Input”部分,新建类实现com.intel.webrtc.base.WoogeenAudioRecord.AudioFrameGeneratorInterface接口,再
在实例化ConferenceClient之后,调用WebRtcAudioUtils.setCustomizedAudioInput(AudioFrameGeneratorInterface),(顺便说一句,文档中写的是类WebRtcUtils,实际发现应该是WebRtcAudioUtils)
 调试发现接口方法    public int generateFramesForNext10Ms(ByteBuffer byteBuffer) 从来没有被调用过。
 
 
 
0 Kudos
1 Reply
He_Z_Intel
Employee
379 Views

1. 感谢指出文档中的问题,我们会在未来版本中更新文档。

2. 目前暂时不支持同时customize video和audio的数据,我们会考虑此项需求。

3. customized audio和设备的mic输入暂时不可以同时使用。

0 Kudos
Reply