CNN 问答集

Q: 为什么要使用 ReLU 而不是 Sigmoid 作为激活函数?

A: 当构建深层的神经网络时,Sigmoid 函数会放大梯度的过小或过大,在反向传播过程中造成梯度的膨胀或消失的情况,导致训练过程不收敛。而 ReLU 采用正则化的线性单元,梯度为常数,可以很容易收敛。

Q: 为什么要使用 Dropout?

A:

Q: GooLeNet 中的 Inception 是什么含义?有什么作用?

A: