英文字典中文字典


英文字典中文字典51ZiDian.com



中文字典辞典   英文字典 a   b   c   d   e   f   g   h   i   j   k   l   m   n   o   p   q   r   s   t   u   v   w   x   y   z       







请输入英文单字,中文词皆可:

transformer    音标拼音: [trænsf'ɔrmɚ]
n. 变压器,使变化的人

变压器,使变化的人

transformer
自耦变压器 ATR

transformer
变换器 变压器

transformer
n 1: an electrical device by which alternating current of one
voltage is changed to another voltage

Transformer \Trans*form"er\, n.
1. One who, or that which, transforms. Specif. (Elec.), an
apparatus for producing from a given electrical current
another current of different voltage.
[1913 Webster]

2. (1990's) a toy consisting of a figure or representation of
an object, constructed of interlocking parts in such a way
that a series of turning or twisting motions of the parts
can transform the object from one type of object to a
different type of object, such as from an animal to an
automobile.
[PJC]

{Multiple transformer}. (Elec.)
(a) A transformer connected in multiple or in parallel
with the primary circuit.
(b) A transformer with more than one primary or more than
one secondary coil.

{Parallel transformer} (Elec.), a transformer connected in
parallel.
[Webster 1913 Suppl.]



安装中文字典英文字典查询工具!


中文字典英文字典工具:
选择颜色:
输入中英文单字

































































英文字典中文字典相关资料:


  • 一文了解Transformer全貌(图解Transformer) - 知乎
    网络上关于Transformer的解析文章非常大,但本文将力求用浅显易懂的语言,为大家深入解析Transformer的技术内核。 前言 Transformer是谷歌在2017年的论文《Attention Is All You Need》中提出的,用于NLP的各项任务,现在是谷歌云TPU推荐的参考模型。
  • 如何最简单、通俗地理解Transformer? - 知乎
    Transformer 与 RNN 不同,可以比较好地并行训练。 Transformer 本身是不能利用单词的顺序信息的,因此需要在输入中添加位置 Embedding,否则 Transformer 就是一个词袋模型了。 Transformer 的重点是 Self-Attention 结构,其中用到的 Q, K, V矩阵通过输出进行线性变换得到。
  • Transformer模型详解(图解最完整版) - 知乎
    Transformer 与 RNN 不同,可以比较好地并行训练。 Transformer 本身是不能利用单词的顺序信息的,因此需要在输入中添加位置 Embedding,否则 Transformer 就是一个词袋模型了。 Transformer 的重点是 Self-Attention 结构,其中用到的 Q, K, V矩阵通过输出进行线性变换得到。
  • MoE和transformer有什么区别和联系? - 知乎
    01 Transformer:像“万能翻译官”的神经网络 Transformer 是当今AI大模型(如ChatGPT)的核心架构,最初用于机器翻译,核心是自注意力机制(Self-Attention),能同时分析句子中所有词的关系,而非像传统RNN那样逐词处理。
  • 挑战 Transformer:全新架构 Mamba 详解 - 知乎
    屹立不倒的 Transformer 迎来了一个强劲竞争者。 自 2017 年被提出以来,Transformer 已经成为 AI 大模型的主流架构,但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显。
  • 如何从浅入深理解 Transformer? - 知乎
    transformer解决的问题就是,过往的时间序列处理往往无法并行的问题。 注意 :基于时间并不意味着处理对象一定要像时间一样有 时间轴 ,比如这里的处理对象就是文章,那么其实这里的t表示的就是文字的序。
  • mamba替换transformer? - 知乎
    7 4 将Transformer的新兴技术应用于Mamba Transformer作为主导的骨干,已经引领AI社区开发了许多旨在提高基于注意力模型性能的独特工具。幸运的是,通过SSMs和注意力的连接,Mamba-2[28]引入的SSD框架允许我们为Transformer和Mamba开发共享的技术和库。
  • 如何评价 Meta 新论文 Transformers without Normalization? - 知乎
    再后来,transformer成为主流,nlp那边用layer norm居多,所以transformer继承了它,至于为什么不用BN而用LN,之前知乎一个问题大佬们都有很多讨论了:transformer 为什么使用 layer normalization,而不是其他的归一化方法? 。
  • transformer是不是深度神经网络?如果是,请回答为什么是? - 知乎
    Transformer 在训练过程中利用反向传播和梯度下降等深度学习的标准技术进行参数更新和优化,这与其他深度神经网络的训练方式相同。 复杂模型容量: 由于其深度结构,Transformer 能够学习复杂的数据表示,这在处理复杂任务,如机器翻译、文本生成、语音识别
  • Transformer 模型是如何想到的,背后的思路和启发点有哪些,有哪些历史渊源,有相关问题吗? - 知乎
    Transformer模型之所以能迅速崛起并成为自然语言处理(NLP)的核心架构,是技术突破、时代机遇与生态协同共同作用的结果,也就是中国人常讲的天时地利人和。 天时:硬件、数据、算法需求三重成熟,为技术突破提供土壤。





中文字典-英文字典  2005-2009