深度学习的损失函数
本文讲解神经网络使用的损失,用于衡量模型输出与标签值的差异,尤其需要把握的是不同模型输出使用不同的激活函数,然后使用不同损失函数去计算
本文讲解神经网络使用的损失,用于衡量模型输出与标签值的差异,尤其需要把握的是不同模型输出使用不同的激活函数,然后使用不同损失函数去计算
本文介绍迁移学习的基本概念,迁移时需要关注从源域拿来什么“知识”,以使得目标域不是从0开始学习
本文介绍神经网络的训练关键设置,包括batchsize、初始化和学习率,尤其需要把握网络初始方法,不正确的初始化甚至导致模型无法收敛
在神经网络中引入激活函数,使得神经网络具有非线性的表达能力,通常使用的激活函数有relu、sigmoid、softmax,也存在很多变种,把握他们区别即可,同时还要掌握饱和、不饱和激活函数的定义、作用
本文介绍神经网络中规范化操作,其作用是约束网络层的输出,使得网络更加容易收敛,由此延伸出多种规范化的方法,包括:LN、IN、GN、PN,还要重点把握BN训练时、推理时的操作
本文介绍 RNN,进而介绍 LSTM、GRU,RNN 是在 ANN 的基础上,加入了隐藏状态,LSTM 为解决长程依赖的问题,甚至提出遗忘门的概念
本文介绍 CNN 的基础原理,由此发展出多种概念,包括:1 x 1 卷积、分组卷积、空洞卷积、深度可分离卷积、分解卷积、反卷积、形变卷积等
本文主要通过假设,去检验样本是否符合某个分布