我正在寻找可以帮助我建立磁带饱和过程的信息。
我正在使用 WebAudio API。API 提供了许多执行基本流程的 DSP 节点,例如 Convolver 节点和 WaveShaper 节点。WaveShaper 似乎暗示它是为失真效果而设计的(http://www.w3.org/TR/webaudio/#WaveShaperNode-section)。但在我看来,磁带饱和不仅仅是输入到输出值的简单映射。
我应该建模的主要过程是什么?谁能指出我正确的方向?
我正在寻找可以帮助我建立磁带饱和过程的信息。
我正在使用 WebAudio API。API 提供了许多执行基本流程的 DSP 节点,例如 Convolver 节点和 WaveShaper 节点。WaveShaper 似乎暗示它是为失真效果而设计的(http://www.w3.org/TR/webaudio/#WaveShaperNode-section)。但在我看来,磁带饱和不仅仅是输入到输出值的简单映射。
我应该建模的主要过程是什么?谁能指出我正确的方向?
饱和度可以建模为一阶信号的对称失真,但它也具有历史依赖性——因此术语滞后用于描述对施加的磁场的磁响应。偏置(与要记录的信号同时施加到磁带上的交流场)使曲线线性化,并通过消除介质的记忆来减少滞后效应。如果您的目标是模拟录音机的声音,您应该考虑滞后效应,以及高频信号具有自偏置的事实,以便它们有效地饱和在与低频信号不同(更低)的水平。(这是杜比 HX 处理背后的洞察力,它确实让盒式磁带听起来更好。)