排序方式: 共有23条查询结果,搜索用时 15 毫秒
22.
现有层归一化(Layer Normalization,LN)研究通过中心化和缩放网络中某一层的所有神经元输入来使得输入值落在非线性函数对输入比较敏感的区域,从而帮助稳定训练并促进模型收敛.在多通道的图像数据中,虽然现有层归一化技术能够让不同通道的特征具有相同的均值和方差,但是图像中相邻特征之间依旧具有很强的相关性,即多个通道中特征存在冗余.本文进一步提出了去相关层归一化(Decorrelated Layer Normalization,DLN)研究,所提方法通过对单个样本所有通道中加入白化(Whitening)操作,在保留原有网络层归一化的基础上进一步减少了输入特征之间的相关性,使得通道上的数据特征表达具有独立同分布的特点,从而降低了输入数据的冗余并最终提升层归一化的泛化性能.在CIFAR-10,CIFAR-100数据集上的实验结果证明本论文所提方法与其他归一化方法在小批量样本(Mini-Batch)上比较能够将图像分类准确率提高2%至4%. 相似文献
23.
在图像编码系统中,为了获得较好的解码质量,提出了一种新的基于基准线的形状编码算法。该算法首先采用1维数据描述2维形状信息,并借助形状轮廓来抽取距离集和拐点;然后采用DPCM对距离集和拐点进行编码,从而有效地节约了码流。实验结果表明,该算法不仅能够适应各种特殊的形状边界走向,具有很好的重构效果,而且能有效克服基于块的形状编码所产生的阶梯效应问题。 相似文献