- 博客(3)
- 收藏
- 关注
原创 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (2019)论文笔记
论文链接: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks. 代码链接: tensorflow. 摘要简介传统Scaling up的方法Compound Scaling方法 简介 加深扩大神经网络(model scaling up)可以有效提升模型的准确率,但是计算资源是有限的。本文讨论了在有限的运算...
2019-06-11 22:12:16
686
翻译 Regularizing Neural Networks by Penalizing Confident Output Distributions (2017)摘要
G. Pereyra, G. Tucker, J. Chorowski 原文地址 https://arxiv.org/abs/1701.06548 在深度学习的分类问题中,经常出现模型过拟合的情况,具体表现往往为:模型给一个目标分类时,给某个类过大的信任(概率)导致分类出错,(即概率集中在一个类上)。作者提出给这样的分布添加惩罚机制。 论文从条件概率的熵开始推导,y为类别,x为输入值。 将这个熵...
2018-10-06 04:50:05
1538
翻译 Understanding intermediate layers using linear classifier probes (2016)摘要
Understanding intermediate layers using linear classifier probes (2016)摘要 G. Alain & Y. Bengio 原文地址 https://arxiv.org/abs/1610.01644 众所周知,大多数时候神经网络模型的内部运算不可测,这篇论文提出了“linear classifier probe”来分析神经网...
2018-10-06 04:35:22
990
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人