![机器学习实战:模型构建与应用](https://wfqqreader-1252317822.image.myqcloud.com/cover/359/44389359/b_44389359.jpg)
上QQ阅读APP看书,第一时间看更新
2.6 训练更长时间,发现过拟合
目前我们只训练了5个回合。也就是说,我们经历了整个训练循环,
随机地初始化神经元,检查它们的标签,用损失函数度量其性能,然后更新优化器5次。我们得到的结果非常好:训练集上89%的准确率和测试集上87%的准确率。那么,如果我们训练更长时间会发生什么?
试着重新训练50次而不是5次。我得到在训练集上的准确率:
![](https://epubservercos.yuewen.com/A03276/23627497809544006/epubprivate/OEBPS/Images/048-3.jpg?sign=1739313418-TaFOAmgHHI6jqV5Qv9X0xYy31PMCSPf4-0-3359178b39c05c5cdef78b929a9ebcc2)
这格外令人兴奋,因为我们做得更好了:96.27%的准确率。在测试集上我们达到了88.6%的准确率:
![](https://epubservercos.yuewen.com/A03276/23627497809544006/epubprivate/OEBPS/Images/049-1.jpg?sign=1739313418-3dz5F6M8miWQYHsdyPLPMo6fI3zKePU6-0-16aa69c9ec713334a1be307d62e42049)
因此,我们在训练集上获得了很大的改进,而在测试集上获得了较小的改进。这可能表明对网络训练更长时间会带来更好的结果,但情况并非总是如此。网络在训练集上做得更好,但不一定是更好的模型。事实上,准确率的差异表明网络对训练数据过于专业,这个过程通常称为过拟合。当你创建更多的神经网络时,这是需要注意的地方,而当你读完本书时,会学到很多技巧来避免它。