我需要一些关于我最后一年项目的帮助。我对机器学习还很陌生,我已经尝试了很多来了解如何使用逻辑回归训练模型。
我有两个每个 5 秒的音频剪辑数据集,一个是婴儿哭声,一个是婴儿“不哭”。
我想在 google colab 上使用逻辑回归来训练模型。现在我已经成功地将音频剪辑转换为频谱图图像。但是我一直在训练模型,因为我无法理解如何训练模型(代码非常复杂,到目前为止我见过它)。
我想要的是使用逻辑回归训练模型,并在输出中获得 100 个权重。然后会发生的是,我将使用 Arduino 录制婴儿哭声。然后我将从新录制的音频中获得 100 个数据点。
然后前一个和新的 100 个权重将一对一相乘。然后添加。然后将在其上运行一个 sigmoid 函数(在获得 100 个权重后,所有这些计算都不会在 google colab 中发生,而是在 Arduino 中发生)。
然后如果输出值大于0.5,说明宝宝在哭(也就是说新录制的音频是宝宝哭的声音),如果小于0.5,说明宝宝没有哭。现在来自 Arduino 记录的 100 个数据点的范围为 0 到 1。如果训练模型的 100 个权重也位于 0 到 1 之间,那就太好了。
任何关于代码的帮助或关于逻辑回归的优秀教程视频的链接将不胜感激。