CNN 问答集 发表于 2016-10-26 | | 阅读次数 Q: 为什么要使用 ReLU 而不是 Sigmoid 作为激活函数? A: 当构建深层的神经网络时,Sigmoid 函数会放大梯度的过小或过大,在反向传播过程中造成梯度的膨胀或消失的情况,导致训练过程不收敛。而 ReLU 采用正则化的线性单元,梯度为常数,可以很容易收敛。 Q: 为什么要使用 Dropout? A: Q: GooLeNet 中的 Inception 是什么含义?有什么作用? A: