微积分 - 极限、导数、偏导数
本文从极限入手,一步步讲解到导数、偏导数、梯度,是神经网络反向传播的核心,后续在此基础上进一步展开讲解到泰勒公式,泰勒公式其实就是使用多阶导数去接近原始函数,就是韩式表达式的分解表示,类似与神经网络向不同层进行后向传播
本文从极限入手,一步步讲解到导数、偏导数、梯度,是神经网络反向传播的核心,后续在此基础上进一步展开讲解到泰勒公式,泰勒公式其实就是使用多阶导数去接近原始函数,就是韩式表达式的分解表示,类似与神经网络向不同层进行后向传播
YOLOv 1 的基础上,引入锚框的思想,并通过新的骨干网 Darknet 19、批规范化 (BatchNormalization, BN)、先验框、多尺度训练等技术,实现比 YOLOv 1 更快、更好的目标
RefineNet 是一个采用 encoder-decoder 的语义分割网络,类似于 Unet,频繁采用上采样和跨连接,不同在于 UNet 在上采样后直接和 encoder 的 feature map 进行级联,RefineNet 上采样后把 encoder 产生的 feature 和上一阶段 decoder 的输出同时作为输入
本文从标量、向量入手,讲解到矩阵、张量,并讲解了矩阵与张量的运算规则,对于神经网络来说,张量之间更多的是:矩阵相乘 (卷积提取特征)、矩阵内积 (transformer 计算自注意力)
本文介绍连续型随机分布,表示一个区间内的事件的概率,需要记住的只有连续型均匀分布、正太分布
假设建议是根据现有试验,推断出其满足的分布,一般是假设试验满足分布,然后在置信度区域内计算随机变量,如何随机变量出现在该置信度接受区域内,则接受假设,否则拒绝假设
本文主要通过假设,去检验样本是否符合某个分布
参数估计就是就是根据已观察到的试验去估计分布公式上的参数,常用的方法有极大似然函数
本文讲了几个离散型分布,表示有限事件发生的概率,日常使用记住这 3 个即可伯努力分布 (2 点分布)、均匀分布、正太分布