在神经网络中存在参数 lr、误差、迭代。
我在我的代码中使用了这个库:
trainer.train(trainingSet, {
rate: getParametersAnn(tipo,parametros).lr,//0.003
iterations: 20000,
error:getParametersAnn(tipo,parametros).error,//0.005
shuffle: true,
log: 10,
cost: synaptic.Trainer.cost.CROSS_ENTROPY,
网格搜索应该搜索哪些参数?
还是应该使用库的默认参数?
用这个参数
rate: 0.001,
iterations: 2000,
error: 0.1,
shuffle: true,
log: 1,
cost: synaptic.Trainer.cost.CROSS_ENTROPY
结果是:
iterations 1 error 0.5826960676804478 rate 0.001
iterations 2 error 0.24274412100103793 rate 0.001
iterations 3 error -0.1024786307448624 rate 0.001
iterations 1 error 0.5714651392530429 rate 0.001
iterations 2 error 0.30301059323863505 rate 0.001
iterations 3 error 0.062228013069539526 rate 0.001
. . 。ETC。
与
rate: 0.1,
iterations: 20,
error: 0.1,
shuffle: true,
log: 1,
cost: synaptic.Trainer.cost.CROSS_ENTROPY
iterations 1 error -7.352525710025565 rate 0.1
iterations 1 error -11.137117275284693 rate 0.1
iterations 1 error -8.64864011321306 rate 0.1
iterations 1 error -11.165450848337727 rate 0.1
iterations 1 error -11.087407126740619 rate 0.1
iterations 1 error -11.157093359867917 rate 0.1
iterations 1 error -11.139330057051765 rate 0.1
iterations 1 error -11.111847588899709 rate 0.1
看第二个例子的迭代,它没有前进,因为迭代应该如何?