Intel® Collaboration Suite for WebRTC
Community support and discussions on the Intel® Collaboration Suite for WebRTC (Intel® CS for WebRTC).
Announcements
Welcome to the Intel Community. If you get an answer you like, please mark it as an Accepted Solution to help others. Thank you!
For the latest information on Intel’s response to the Log4j/Log4Shell vulnerability, please see Intel-SA-00646
1136 Discussions

能否在安卓sdk自定义发布视频流的过程中,同时带上自定义采集的音频?

mah_f_
Beginner
217 Views

我们最终想实现的效果是——让LocalCustomizedStream发布自定义的本地流,音频和视频均是自定义的,即视频输入是自定义设备的采集视频,音频走自定义采集的流程,这样音频类可以将采集的录音送往存储文件流程的同时,也送一份拷贝到webrtc音频发布流程。 不知道有没有好的建议?先谢了!
目前测试的流程:
1.通过自定义自定义视频的流程,在构造方法
LocalCustomizedStream    (    VideoFrameGeneratorInterface     generator, boolean     hasAudio)   
中,
如果hasAudio设为false,此时发布的本地流,其视频为自定义视频,音频轨道为空。如果同时启动下面第2点的自定义音频采集流程,web接收方收不到任何音轨数据
如果hasAudio为true,此时发布的本地流,其视频为自定义视频,音频轨道为麦克风采集的音频。如果同时启动下面第2点的自定义音频采集流程,则LocalCustomizedStream的麦克风录制设备初始化会失败,web接收方仍然是收不到任何音轨数据。
 
2.启动自定义音频的流程,参考在安卓sdk的开发文档
的“14 Customize Audio Input”部分,新建类实现com.intel.webrtc.base.WoogeenAudioRecord.AudioFrameGeneratorInterface接口,再
在实例化ConferenceClient之后,调用WebRtcAudioUtils.setCustomizedAudioInput(AudioFrameGeneratorInterface),(顺便说一句,文档中写的是类WebRtcUtils,实际发现应该是WebRtcAudioUtils)
 调试发现接口方法    public int generateFramesForNext10Ms(ByteBuffer byteBuffer) 从来没有被调用过。
 
 
 
0 Kudos
1 Reply
He_Z_Intel
Employee
217 Views

1. 感谢指出文档中的问题,我们会在未来版本中更新文档。

2. 目前暂时不支持同时customize video和audio的数据,我们会考虑此项需求。

3. customized audio和设备的mic输入暂时不可以同时使用。

Reply