深度学习的数学基础
学习深度学习,第一个门槛总是 “数学要学什么,学多少?”,本文介绍了需要学习的数学知识
学习深度学习,第一个门槛总是 “数学要学什么,学多少?”,本文介绍了需要学习的数学知识
形态学的概念与应用,由膨胀腐蚀到开运算闭运算,再到顶帽黑帽运算,最终介绍这些运算在提取边界、校准光照的作用
本文讲解神经网络使用的损失,用于衡量模型输出与标签值的差异,尤其需要把握的是不同模型输出使用不同的激活函数,然后使用不同损失函数去计算
本文介绍神经网络中规范化操作,其作用是约束网络层的输出,使得网络更加容易收敛,由此延伸出多种规范化的方法,包括:LN、IN、GN、PN,还要重点把握 BN 训练时、推理时的操作
本文讲解了对神经网络进行参数更新的优化器,最基础的优化器是 w=w-rg,其中 w,r,g 表示参数、学习率和梯度,后面针对历史梯度、自适应学习率发展出不同的优化器,如 AdaGrad,Adam 等
本文分析了深度学习在训练、推理时的显存占用,主要包括:网络参数值、网络参数梯度值、输入 + 每层输出、优化器参数
本文介绍 BP 算法的原理,尤其需要把握的时,损失先对每层输出求误差项,然后将误差项应用于每一层参数,求得所有参数的梯度,然后再使用优化器去更新参数
将图像转为二值处理,减少干扰区域,目前二值化办法有定值二值化、自适应二值化