百科狗-知识改变命运!
--

shift和convert区别

百变鹏仔1年前 (2023-12-21)阅读数 8#综合百科
文章标签准确率模型

shift意思是移动,转换。vary是改变,使…多样化。convert的意思是使改变,使转化。mend则是改善,修复的意思。

shift表示变动的时候,多指位置、方向以及方式的改变。它作名词时还可表示轮班、计谋、手段、变化等。convert指进行全部或局部改变以适应新的功能或用途。指信仰或态度时,强调较激烈、大的改变。它作名词时就表示皈依者,或者改变信仰的人。

相关简介:

在英语里,如果两个词语的意思相同或相近,那么它们就被称作一对 “synonyms 同义词”,而意思相反的词语则叫作 “antonyms 反义词”。各类 “同义词词典 thesaurus” 中就收录了每个词语的近义、反义词。试着选出下列题目中特定词语的同义或反义词,丰富你的词汇量。

英语也是与计算机联系最密切的语言,大多数编程语言都与英语有联系,而且随着互联网的使用,使英文的使用更普及。与英语最接近的无疑是弗里西语,这种语言现在仍然在荷兰北部弗里斯兰省中使用,大约有50万个使用者。

一些人认为低地苏格兰语是与英语接近的一个独立语言,而一些人则认为它是英语的一个方言。苏格兰语、荷兰东部和德国北部的低地撒克逊语与英语也很接近。其他相关的语言包括荷兰语、南非荷兰语和德语。诺曼人于11世纪征服英国,带来大量法语词汇,很大程度地丰富了英语词汇。

请问transfer,shift 的区别是什么?谢谢

选自arXiv

作者:Mostafa Elhoushi 等机器之心编译

参与:魔王、杜伟

深度学习模型,尤其是深度卷积神经网络(DCNN),在多个计算机视觉应用中获得很高的准确率。但是, 在移动环境中部署时,高昂的计算成本和巨大的耗电量成为主要瓶颈。 而大量使用乘法的卷积层和全连接层正是计算成本的主要贡献者。

论文链接:https://arxiv.org/pdf/1905.13298.pdf

华为的这篇论文提出了解决该问题的新方法,即引入两种新型运算:卷积移位(convolutional shift)和全连接移位(fully-connected shift),从而用按位移位(bitwise shift)和按位取反(bitwise negation)来取代乘法。使用了卷积移位和全连接移位的神经网络架构族即 DeepShift 模型。DeepShift 模型可以在不使用乘法的情况下实现,且 在 CIFAR10 数据集上获得了高达 93.6% 的准确率,在 ImageNet 数据集上获得了 70.9%/90.13% 的 Top-1/Top-5 准确率。

研究者将多种著名 CNN 架构的卷积层和全连接层分别进行卷积移位和全连接移位转换,并进行了大量实验。实验结果表明,有些模型的 Top-1 准确率下降程度低于 4%,Top-5 准确率下降程度低于 1.5%。

所有实验均使用 PyTorch 框架完成 ,训练和运行代码也已经发布。

代码地址:https://github.com/mostafaelhoushi/DeepShift

引言

越来越多的深度神经网络针对移动和 IoT 应用而开发。边缘设备通常电量和价格预算较低,且内存有限。此外,内存和计算之间的通信量在 CNN 的电量需求中也占主要地位。如果设备和云之间的通信成为必要(如在模型更新等情况下),那么模型大小将影响连接成本。因此,对于移动/IoT 推断应用而言,模型优化、模型规模缩小、加速推断和降低能耗是重要的研究领域。

目前已有多种方法可以解决这一需求,这些方法可分为三类:

第一类方法是从头开始构建高效模型,从而得到新型网络架构,但要找出最适合的架构需要尝试多个架构变体,而这需要大量训练资源;

第二类方法是从大模型开始。由于网络中存在一些冗余参数,这些参数对输出没有太大贡献,因而我们可以基于参数对输出的贡献程度对它们进行排序。然后修剪掉排序较低的参数,这不会对准确率造成太大影响。参数排序可以按照神经元权重的 L1/L2 均值(即平均激活)进行,或者按照非零神经元在某个验证集上的比例进行。剪枝完成后,模型准确率会下降,因此需要进一步执行模型训练来恢复准确率。一次性修剪太多参数可能导致输出准确率大幅下降,因此在实践中,通常迭代地使用「剪枝-重新训练」这一循环来执行剪枝操作。这可以降低模型大小,并加快速度;

第三类方法是从大模型开始,然后用量化技术来缩减模型大小。在一些案例中,量化后的模型被重新训练,以恢复部分准确率。

这些方法的重要魅力在于: 它们可以轻松应用于多种网络,不仅能够缩减模型大小,还能降低在底层硬件上所需的复杂计算单元数量。 这带来了更小的模型占用、更少的工作记忆(和缓存)、在支持平台上的更快计算,以及更低的能耗。

此外, 一些优化技术用二值 XNOR 运算来替代乘法。 此类技术在小型数据集(如 MNIST 或 CIFAR10)上可能有较高的准确率,但在复杂数据集(如 ImageNet)上准确率会严重下降。

华为的这篇论文提出两种新型运算——卷积移位和全连接移位,用按位移位和按位取反来取代乘法,从而降低 CNN 的计算成本和能耗。 这一神经网络架构族即为 DeepShift 模型。该方法主要使用 2 的幂或按位移位从头开始执行 one-shot 训练,或者对预训练模型进行转换。

DeepShift 网络

图 1:(a) 原始线性算子 vs 本研究提出的移位线性算子;(b) 原始卷积算子 vs 本研究提出的移位卷积算子。

如上图 1 所示,本论文的主要概念是用按位移位和按位取反来替代乘法运算。如果输入数字的底层二进制表示 A 是整数或固定点形式,则向左(或向右)按位移动 s 位在数学层面上等同于乘以 2 的正(负)指数幂:

按位移位仅等同于乘以正数 ,因为对于任意 s 值,都有 2_±s > 0。但在神经网络训练过程中,搜索空间中必须存在乘以负数的情况,尤其是在卷积神经网络中,其滤波器的正负值可用于检测边。因此,我们还需要使用取反运算,即:

与按位移位类似,取反运算的计算成本较低,因为它只需要对数字返回 2 的补码。

下文将介绍该研究提出的新型算子 LinearShift 和 ConvShift,它们用按位移位和取反取代了乘法:

其中 s 是移位值,n 是取反值。 在经典的 CPU 架构中,按位移位和按位取反仅使用 1 个时钟周期,而浮点乘法可能需要 10 个时钟周期。

LinearShift 算子

其中输入 x 可表示为矩阵 B × m_in,输出 y 可表示为矩阵 B × m_out,W 是可训练权重矩阵 m_in × m_out,b 是可训练偏置向量 m_out × 1。B 是批大小,m_in 是输入特征大小,m_out 是输出特征大小。

该线性算子的反向传播可表达为:

其中 ?L/?y 是运算的梯度输入(运算输出的模型损失 L 的导数),?L/?x 是运算的梯度输出(运算输入的模型损失的导数),?L/?W 是运算权重的模型损失的导数。本论文提出该移位线性算子,在其前向传播中用按位移位和取反替代了矩阵乘法。其前向传播可定义为:

其中 N 是取反矩阵,S 是移位值矩阵,· 表示这两个矩阵的对应元素乘法。B 和 S 的大小是 m_in × m_out,b 是偏置向量,类似于原始线性算子。S、N 和 b 都是可训练的参数。

为了帮助推导后向传播,研究者使用项 V = (?1)^round(N) ˙ (2)^round(S),得到:

注意,反向传播导致 -1 和 2 的幂存在非整数值。但是,在前向传播中,它们被四舍五入,以实现按位取反和移位。

ConvShift 算子

原始卷积算子的前向传播可表达为:

其中 W 的维度是 c_out × c_in × h × w,其中 c_in 是输入通道大小,c_out 是输出通道大小,h 和 w 分别是卷积滤波器的高和宽。LeCun 等 [1999] 将卷积的反向传播表示为:

类似地,本研究提出的卷积移位(即 ConvShift)算子的前向传播可表示为:

其中 N 和 S 分别表示取反和移位矩阵,维度为 c_out × c_in × h × w。类似地,为了推导反向传播,研究者使用项 V = (?1)^round(N) ˙ (2)^round(S),得到:

基准测试结果

研究者在 3 个数据集上测试了模型的训练和推断结果:MNIST、CIFAR10 和 ImageNet 数据集。

MNIST 数据集

下表 1 展示了模型在 MNIST 验证集上的准确率。我们可以看到, 从头训练得到的 DeepShift 模型的准确率下降程度超过 13% ,不过仅转换预训练权重得到的 DeepShift 版本准确率下降程度较小,而 基于转换权重进行后续训练则使验证准确率有所提升,甚至超过了原版模型的准确率。

CIFAR10 数据集

下表 2 展示了模型在 CIFAR10 验证集上的评估结果。我们注意到 从头训练得到的 DeepShift 版本出现了严重的准确率下降,而基于转换预训练权重训练得到的 DeepShift 模型准确率下降幅度较小(不到 2%)。

值得注意的是,对于未经进一步训练的转换权重,宽度更大、复杂度更高的模型取得的结果优于低复杂度模型。这或许可以解释为,模型复杂度的提升补偿了运算被转换为 ConvShift 或 LinearShift 导致的精度下降。

ImageNet 数据集

下表 3 展示了模型在 ImageNet 数据集上的结果,我们从中可以看到不同的模型结果迥异。 最好的性能结果来自 ResNet152,其 Top-1 和 Top-5 准确率分别是 75.56% 和 92.75%。 值得注意的是,由于时间限制,一些模型仅训练了 4 个 epoch。进行更多训练 epoch 可能带来更高的准确率。

复杂度较高的模型被准换为 DeepShift 后,结果通常更好。MobileNetv2 等「难缠」模型在移除所有乘法运算后准确率仅降低了约 6%。与其他加速方法(如 XNOR 网络、量化或剪枝)相比,这无疑是巨大的优势,这些方法对 MobileNet 的优化带来负面效果。然而,其他「难缠」网络(如 SqueezeNet)的准确率则出现了大幅下降。

为什么 MobileNetv2 的权重被转换后,在未经后续训练的情况下准确率几乎为 0?而在训练几个 epoch 后,Top-5 准确率竟然超过 84%?这一点还有待分析。

transfer

一般表示转送或移交迁移,尤指交通运输中的换乘或职务的调动等。

常用结构为transfer

from...to...

例句:He

was

soon

transferred

to

another

post.

他很快被调职。

He

intends

to

transfer

the

property

to

his

son.

他打算把财产转让给儿子。

The

club's

goalkeeper

isn't

happy

here,

and

has

asked

for

a

transfer

shift和convert区别

(to

another

club).

该足球俱乐部的守门员在此不愉快,

已要求转到其他俱乐部.

shift

常指同一类属内的位置、方向的转变改变,或较小的改变。shift

侧重位置与方向的改变。

例句:

He

is

on

the

day/night

shift

他上白/夜班。

Help

me

to

shift

the

sofa

away

from

the

fire.帮我把沙发搬到离火远点的地方。

Learn

to

shift

gear

at

the

right

moment.

要学会掌握在什么时候换挡。

这里再给你补充两个同类得易混词——希望对你有帮助:

transform

转变,改变。指把一种形式变成另一种形式。通常指深刻、彻底的变化。可以指外表,也可以指性质、特点、功能的改变。如:the

frog

that

was

transformed

into

a

prince(那只青蛙被变成了王子),plans

that

were

transformed

overnight

into

reality(设想在一夜之间变成了现实)。同时,要注意在搭配结构上常用transform...into...的形式。

alter常用于将衣服改一改,以便穿起来舒适,如将衣服改大或改小。还常用于再装修,如alter

the

bookshop

into

a

self?service

grocery(将书店改成自选商店)。指的是在原来本体的基础上进行改变。

鹏仔微信 15129739599 鹏仔QQ344225443 鹏仔前端 pjxi.com 共享博客 sharedbk.com

免责声明:我们致力于保护作者版权,注重分享,当前被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理!邮箱:344225443@qq.com)

图片声明:本站部分配图来自网络。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

内容声明:本文中引用的各种信息及资料(包括但不限于文字、数据、图表及超链接等)均来源于该信息及资料的相关主体(包括但不限于公司、媒体、协会等机构)的官方网站或公开发表的信息。部分内容参考包括:(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供参考使用,不准确地方联系删除处理!本站为非盈利性质站点,本着为中国教育事业出一份力,发布内容不收取任何费用也不接任何广告!)