Numpy中数据的常用的保存与读取方法
在经常性读取大量的数值文件时(比如深度学习训练数据),可以考虑现将数据存储为Numpy格式,然后直接使用Numpy去读取,速度相比为转化前快很多.
下面就常用的保存数据到二进制文件和保存数据到文本文件进行介绍:
在经常性读取大量的数值文件时(比如深度学习训练数据),可以考虑现将数据存储为Numpy格式,然后直接使用Numpy去读取,速度相比为转化前快很多.
下面就常用的保存数据到二进制文件和保存数据到文本文件进行介绍:
本文介绍Mxnet如何使用GPU的过程
本文通过拆解LSTM,并通过统计几个模块的参数量来分析各个模块的原理
Gluon与Maxnet的关系就像Keras与Tensorflow的关系,本文介绍部署Gluon环境的整个过程
Mxnet是亚马逊开发的深度学习框架,和谷歌Tensorflow是同类型的框架。
和ZFNet类似,是一篇分析CNN原理的经典论文,对后来的弱监督学习有很大的启发,本文证明2个结论:(1)CNN提取的featrue含有位置信息,尽管我们在训练时没有标注位置信息;(2)这些位置信息可以转移到其他认知任务中
通过引入子网络结构代替纯卷积中的线性映射部分,替换传统卷积模式 (卷积+激活+Dropout)的卷积方式;结尾使用全局池化替代 Dropout,提高泛化能力的同时,减小网络
继Alexnet后,通过观察卷积神经网络某一层的特征图,系统分析了卷积神经网络处理图片的原理,包括:(1)卷积神经网络自动学习区域相关性;(2)卷积神经网络是学习了关键区域的特征,而不是全局特征;(3)卷积神经网络的特征是多层抽象的;(4)浅层卷积神经网络收敛更快;(5)卷积神经网络具有大小不变性、尺度不变性、旋转不变性
本文介绍在linux上如何安装cuda及cudnn
本文基于sklearn进行数据的特征工作