本文讲解神经网络使用的损失,用于衡量模型输出与标签值的差异,尤其需要把握的是不同模型输出使用不同的激活函数,然后使用不同损失函数去计算

阅读全文 »

在神经网络中引入激活函数,使得神经网络具有非线性的表达能力,通常使用的激活函数有relu、sigmoid、softmax,也存在很多变种,把握他们区别即可,同时还要掌握饱和、不饱和激活函数的定义、作用

阅读全文 »

本文介绍神经网络中规范化操作,其作用是约束网络层的输出,使得网络更加容易收敛,由此延伸出多种规范化的方法,包括:LN、IN、GN、PN,还要重点把握BN训练时、推理时的操作

阅读全文 »

本文介绍 RNN,进而介绍 LSTM、GRU,RNN 是在 ANN 的基础上,加入了隐藏状态,LSTM 为解决长程依赖的问题,甚至提出遗忘门的概念

阅读全文 »

本文介绍 CNN 的基础原理,由此发展出多种概念,包括:1 x 1 卷积、分组卷积、空洞卷积、深度可分离卷积、分解卷积、反卷积、形变卷积等

阅读全文 »