资源经验分享神经网络的debug

神经网络的debug

2019-11-29 | |  99 |   0

原标题:神经网络的debug

原文来自:博客园      原文链接:https://www.cnblogs.com/charlie4z/p/11132568.html


  1. 先建一个只有一层隐藏层的网络确定一切工作正常

  2. 在一个数据点上训练,training accuracy应该马上到100%而val accuracy等于随机猜测(overfit),如果不是说明有bug。

  3. 所有loss要在同一个order上,loss要适合任务(categorial cross-entropy loss :multi-classification problems or focal loss :class imbalance)

  4. 关注初始的loss,要接近随机猜测的概率。(regularization置于0),比如分类,概率应该等于loss function(1/N),否则可能是因为weights不平衡(initialization很差)或数据集没有normalize


    1. gradient values = 0->learning rate太小或梯度更新的表达式不对

    2. activations, weights和各层的尺度相符

    3. Vanishing or exploding gradients

    4. 可视化网络:ConX或Tensorboard


    1. 要注意regularization是不是远大于data loss,gradients就变成主要从regularization来了

    2. exploding gradients用gradient clipping

    3. 注意一起用dropout和batch normalization时的顺序


免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。

合作及投稿邮箱:E-mail:editor@tusaishared.com

上一篇:OpenCV:图像的普通二值化

下一篇:OpenCV:图像的颜色空间转换

用户评价
全部评价

热门资源

  • Python 爬虫(二)...

    所谓爬虫就是模拟客户端发送网络请求,获取网络响...

  • TensorFlow从1到2...

    原文第四篇中,我们介绍了官方的入门案例MNIST,功...

  • TensorFlow从1到2...

    “回归”这个词,既是Regression算法的名称,也代表...

  • 机器学习中的熵、...

    熵 (entropy) 这一词最初来源于热力学。1948年,克...

  • TensorFlow2.0(10...

    前面的博客中我们说过,在加载数据和预处理数据时...