在将短值除以参与者数量之后,我混合音频(16bit,16khz,little-endian,单声道,帧持续时间:60ms)数据包,因此它永远不会被剪裁。但在此之前,我需要对所有传入的声音应用一定的增益,以使它们保持在同一水平。即使在混合之后,我也必须再次对混合音频应用一定的增益,以使声音保持流畅并保持一定的音量。
现在,随着语音级别的变化,所有参与者的“增益”一直不是恒定的,我必须一直计算这个动态/自动增益(从样本或短阵列的 RMS?)。我怎样才能做到这一点或实现逻辑?我尝试阅读 webRTC AGC 模块,但它太复杂了,我无法理解。至少建议我在这方面有帮助的任何资源。提前致谢。