我keras
用来训练一个 5 层回归模型来预测 1000 个不同的温度计。我训练了一个模型,然后让它根据其他 20 种仪器来预测读数。我想看看我做事是否正确,所以我用相同的数据和相同的参数训练了 10 个不同的模型,得到了 10 个不同的模型文件。然后我要求 10 个模型文件中的每一个来预测一堆温度。对于某些温度计,模型中的温度预测非常一致,而对于其他温度计,温度预测却无处不在。这是我的意思的一个例子:
| predicted_temp_for_sensor_1 | predicted_temp_for_sensor_2 |
|-----------------------------|-----------------------------|
model_0 | 99.1 | 78.1 |
model_1 | 97.2 | 85.5 |
model_2 | 96.1 | 110.7 |
model_3 | 95.3 | 80.8 |
model_4 | 96.4 | 90.8 |
model_5 | 97.8 | 95.7 |
model_6 | 98.6 | 92.5 |
model_7 | 97.9 | 87.1 |
model_8 | 99.4 | 98.8 |
model_9 | 96.1 | 85.6 |
为了更明显,这里是两个传感器的一些摘要统计信息:
| predicted_temp_for_sensor_1 | predicted_temp_for_sensor_2 |
|-----------------------------|-----------------------------|
predictions | 10 | 10 |
mean | 97.4 | 90.6 |
standard dev | 1.3 | 9.0 |
min | 95.3 | 78.1 |
max | 99.4 | 110.7 |
这意味着什么?这是模型不确定性的迹象吗?我应该将其解释为对预测的低信心吗?我不知道该怎么想。