- Mark as New
- Bookmark
- Subscribe
- Mute
- Subscribe to RSS Feed
- Permalink
- Report Inappropriate Content
我们最终想实现的效果是——让LocalCustomizedStream发布自定义的本地流,音频和视频均是自定义的,即视频输入是自定义设备的采集视频,音频走自定义采集的流程,这样音频类可以将采集的录音送往存储文件流程的同时,也送一份拷贝到webrtc音频发布流程。 不知道有没有好的建议?先谢了!
目前测试的流程:
1.通过自定义自定义视频的流程,在构造方法
LocalCustomizedStream ( VideoFrameGeneratorInterface generator, boolean hasAudio)
中,
如果hasAudio设为false,此时发布的本地流,其视频为自定义视频,音频轨道为空。如果同时启动下面第2点的自定义音频采集流程,web接收方收不到任何音轨数据。
如果hasAudio设为true,此时发布的本地流,其视频为自定义视频,音频轨道为麦克风采集的音频。如果同时启动下面第2点的自定义音频采集流程,则LocalCustomizedStream的麦克风录制设备初始化会失败,web接收方仍然是收不到任何音轨数据。
2.启动自定义音频的流程,参考在安卓sdk的开发文档
的“14 Customize Audio Input”部分,新建类实现com.intel.webrtc.base.WoogeenAudioRecord.AudioFrameGeneratorInterface接口,再
在实例化ConferenceClient之后,调用WebRtcAudioUtils.setCustomizedAudioInput(AudioFrameGeneratorInterface),(顺便说一句,文档中写的是类WebRtcUtils,实际发现应该是WebRtcAudioUtils)
调试发现接口方法 public int generateFramesForNext10Ms(ByteBuffer byteBuffer) 从来没有被调用过。
- Tags:
- HTML5
- JavaScript*
Link Copied
1 Reply
- Mark as New
- Bookmark
- Subscribe
- Mute
- Subscribe to RSS Feed
- Permalink
- Report Inappropriate Content
1. 感谢指出文档中的问题,我们会在未来版本中更新文档。
2. 目前暂时不支持同时customize video和audio的数据,我们会考虑此项需求。
3. customized audio和设备的mic输入暂时不可以同时使用。

Reply
Topic Options
- Subscribe to RSS Feed
- Mark Topic as New
- Mark Topic as Read
- Float this Topic for Current User
- Bookmark
- Subscribe
- Printer Friendly Page