它允许并行计算

它允许并行计算(或同时进行),这意味着训练时间大大缩短。它不仅使 AI 模型变得更好,而且使模型的生成速度更快、成本更低。 Transformer 的核心是一个名为“自注意力”的过程。较旧的循环神经网络 (RNN) 从左到右阅读文本。当相关的单词和概念彼此相邻时,这种方法还不错,但当它们位于句子的两端时,情况就变得复杂了。

 

这也是一种计算速度很

慢的方法,因为它必须按顺序进行。) 尝试 Zapier 的 AI 功能  智利电报数据 探索人工智能如何赋予您自动化超能力。 开始使用 然而,Transformer 会一次读取句子中的每个单词,并将每个单词与所有其他单词进行比较。这使得它们能够将“注意力”集中在最相关的单词上,无论这些单词在句子中的哪个位置。

 

而且它可以在现代计算硬件

上并行完成。 当然,这一切都大大 如何使用 Slack 进行社交媒体营销 简化了事情。Transformer 不处理单词:它们处理“标记”,即编码为向量(具有位置和方向的数字)的文本块或图像。两个标记向量在空间中越接近,它们就越相关。同样,注意力被编码为向量,这使得基于 Transformer 的神经网络能够记住段落前面的重要信息。

 

 在我们深入研究其工作原理的底层 电子邮件线索带领 数学之前,我们就已经知道了。虽然这超出了本文的讨论范围,但《机器学习精通》中有一些深入探讨技术层面的解释。 代币 AI 模型如何理解文本也很重要,所以让我们更深入地了解一下 token。虽然所有数据(包括图像和音频)也被分解为 token,但用文本来理解这个概念最容易。

滚动至顶部