TechCrunch推出AI术语词典,帮助理解复杂概念

TechCrunch AI··作者 Natasha Lomas, Romain Dillet, Kyle Wiggers, Lucas Ropek

关键信息

词典中包含了OpenAI、DeepMind和谷歌对AGI的不同定义,突显出即使专家之间也对什么是通用人工智能存在分歧。

资讯摘要

TechCrunch创建了一个动态词典,用来澄清媒体和研究中常用的AI术语。它解释了AGI的概念——OpenAI、DeepMind和谷歌对其有不同的定义,指的是在大多数任务上超越人类表现的系统。该指南还涵盖了AI代理,即能够自主执行多步骤操作的工具;以及思维链推理,模型通过将问题分解为逻辑步骤来提高准确性。

计算被描述为驱动AI模型训练和部署的硬件能力(如GPU和TPU)。虽然内容不深入技术细节,但对初学者来说提供了理解AI复杂语言的基本背景。

TechCrunch推出AI术语词典,帮助理解复杂概念

资讯正文

人工智能是一个深奥且复杂的领域。从事这一领域的科学家们常常依赖术语和行话来解释他们的工作内容。因此,我们在报道人工智能行业时经常需要使用这些技术术语。为此,我们认为整理一份词典会很有帮助,其中包含我们文章中常用的最重要词汇和短语的定义。

我们将定期更新这份词典,随着研究人员不断发现新的方法来推动人工智能的边界,同时识别新兴的安全风险,也会不断添加新条目。

通用人工智能(AGI)是一个模糊的术语,但通常指在许多任务上——如果不是大多数任务的话——能力超过普通人类的AI。OpenAI首席执行官山姆·阿尔特曼最近将AGI描述为“相当于一个你可以雇佣作为同事的平均水平人类”。与此同时,OpenAI的章程将AGI定义为“高度自主的系统,在大多数具有经济价值的工作中表现优于人类”。谷歌DeepMind的理解则略有不同,该实验室认为AGI是“在大多数认知任务上至少与人类一样有能力的AI”。感到困惑?不用担心——就连人工智能研究前沿的专家也常常如此。

AI代理是指一种利用人工智能技术代表你执行一系列任务的工具——其功能超越了更基础的AI聊天机器人所能完成的任务,例如报销费用、预订票务或餐厅座位,甚至编写和维护代码。然而,正如我们之前解释过的那样,这个新兴领域涉及许多复杂因素,“AI代理”对不同的人可能意味着不同的东西。此外,实现其预期能力所需的基础设施仍在建设中。但基本概念暗示了一个可能调用多个AI系统的自主系统,以完成多步骤的任务。

面对一个简单的问题,人脑几乎无需思考就能作答,比如:“长颈鹿和猫哪个更高?”但在很多情况下,你可能需要纸笔才能得出正确答案,因为中间有步骤。例如,如果一位农民养了鸡和牛,它们加起来共有40个头和120条腿,你可能需要写下简单的方程才能得到答案(20只鸡和20头牛)。

在人工智能背景下,大语言模型的链式思维推理是指将问题分解成更小的中间步骤,从而提升最终结果的质量。这种方法通常耗时更长,但答案更有可能正确,尤其是在逻辑或编程场景中。这类推理模型是在传统大语言模型基础上开发出来的,并通过强化学习优化,使其更适合链式思维。

(参见:大语言模型)

在Disrupt大会上结识你的下一位投资人或投资组合初创企业

你的下一轮机会。你的下一个招聘对象。你的下一个突破性机遇。在TechCrunch Disrupt 2026上找到它,那里有超过10,000名创始人、投资者和技术领袖齐聚一堂,参加为期三天的250多场实战研讨会、强大的人脉对接和定义市场的创新活动。现在注册可节省高达410美元。

尽管这个词含义多样,但‘计算’通常指支持AI模型运行所必需的计算能力。这种处理能力推动了整个AI行业的发展,使其能够训练并部署强大的模型。该术语常作为提供计算能力的硬件类型的简称——比如GPU、CPU、TPU以及其他构成现代AI产业基础的基础设施。

深度学习是一种自我改进的机器学习子集,其AI算法采用多层人工神经网络(ANN)结构。这使得它们相比线性模型或决策树等简单机器学习系统,能做出更复杂的关联分析。深度学习算法的结构灵感来自人类大脑中神经元之间的互联路径。

深度学习AI模型能够自行识别数据中的重要特征,而无需人类工程师预先定义这些特征。该结构还支持可以从错误中学习的算法,并通过重复和调整的过程不断提升输出质量。然而,深度学习系统需要大量数据点才能获得良好结果(通常为数百万条以上),且训练时间通常比简单机器学习算法更长,因此开发成本往往更高。

(参见:神经网络)

扩散技术是许多艺术、音乐和文本生成AI模型的核心。受物理学启发,扩散系统通过添加噪声逐步‘破坏’数据结构(例如照片、歌曲等),直到数据完全失去原有形态。在物理学中,扩散是自发且不可逆的——比如糖在咖啡中扩散后无法还原成方糖。但AI中的扩散系统旨在学习一种‘反向扩散’过程,从而从噪声中恢复原始数据,获得从混乱中重建信息的能力。

蒸馏是一种从大型AI模型中提取知识的技术,采用‘教师-学生’模型的方式。开发者向教师模型发送请求并记录其输出结果。有时会将这些答案与数据集对比以评估准确性。随后,这些输出用于训练学生模型,使其尽可能逼近教师模型的行为。

蒸馏可用于基于大型模型创建更小、更高效的模型,同时保持极低的蒸馏损失。这很可能就是OpenAI开发GPT-4 Turbo的方式——这是GPT-4的一个更快版本。

虽然所有AI公司都会在内部使用蒸馏技术,但某些公司也可能利用它来追赶前沿模型。从竞争对手处蒸馏模型通常违反AI API和聊天助手的服务条款。

这指的是对人工智能模型进行进一步训练,以优化其在比此前训练重点更具体任务或领域中的表现——通常是通过输入新的、专门化的(即任务导向的)数据来实现。

许多AI初创公司以大型语言模型为基础开发商业产品,但它们正努力通过补充自身领域知识和专业经验的微调训练,提升特定行业或任务的实用性。

(参见:大型语言模型 [LLM])

GAN,即生成对抗网络,是一种机器学习框架,支撑了生成式AI中一些重要进展,尤其是在生成逼真数据方面——包括但不限于深度伪造工具。GAN涉及一对神经网络的协作:其中一个网络基于训练数据生成输出,并将结果传递给另一个模型进行评估。第二个模型作为判别器,对生成器的输出进行分类,从而帮助其不断改进。

GAN结构本质上是一个竞争机制(因此称为“对抗”)——两个模型被设计成相互挑战:生成器试图让输出骗过判别器,而判别器则努力识别出人工生成的数据。这种结构化的竞赛可以优化AI输出的真实性,无需额外的人工干预。尽管GAN在特定应用(如生成逼真照片或视频)中效果最佳,但在通用型AI场景下表现有限。

幻觉是AI行业用来描述AI模型编造信息的术语——即生成错误的信息。显然,这是影响AI质量的重大问题。

幻觉会导致生成式AI输出误导用户,甚至引发现实风险,可能带来危险后果(例如,一个健康咨询问题返回有害的医疗建议)。因此,大多数生成式AI工具的小字免责声明现在会提醒用户验证AI生成的答案,尽管这些警告通常远不如一键获取的信息那样显眼。

人们认为AI编造信息的问题源于训练数据的不足。对于通用型生成式AI(也称基础模型)尤其如此,要全面覆盖我们可能提出的所有问题,目前世界上还不存在足够多的数据来训练AI模型。简而言之:我们还没发明上帝(至少现在还没有)。

幻觉正在推动AI向越来越专业化和垂直化方向发展——即构建特定领域的AI模型,要求更窄的专业能力,以此减少知识盲区并降低虚假信息传播的风险。

推理是指运行AI模型的过程,也就是让模型基于已见过的数据做出预测或得出结论。需要明确的是,没有训练就无法进行推理;模型必须先从一组数据中学习到规律,才能有效从这些训练数据中推断出新内容。

许多类型的硬件都可以执行推理任务,从智能手机处理器到高性能GPU,再到专门设计的AI加速器。但并非所有硬件都能同等高效地运行模型。例如,非常大的模型在笔记本电脑上进行预测可能需要很长时间,而在配备高端AI芯片的云服务器上则要快得多。

[参见:训练]

大型语言模型(LLMs)是流行AI助手所使用的AI模型,比如ChatGPT、Claude、谷歌的Gemini、Meta的AI Llama、微软的Copilot或Mistral的Le Chat。当你与AI助手对话时,你实际上是在与一个大型语言模型互动,它可以直接处理你的请求,或借助可用工具(如网络浏览或代码解释器)来完成任务。

AI助手和LLMs可以有不同的名称。例如,GPT是OpenAI开发的大型语言模型,而ChatGPT则是基于该模型的AI助手产品。

LLMs是深度神经网络,包含数十亿个数值参数(或权重,见下文),它们学习单词和短语之间的关系,并构建出一种语言表示方式,相当于一个多维词汇地图。

这些模型通过分析数十亿本书籍、文章和转录内容中的模式创建而成。当你向LLM提出提示时,模型会生成最符合该提示的可能模式,然后根据之前的内容评估下一个最有可能出现的词。重复这个过程,不断迭代。

内存缓存是指一种能提升推理效率的重要机制——推理正是AI用来响应用户查询的过程。本质上,缓存是一种优化技术,旨在让推理更高效。AI显然依赖高强度的数学计算,每次计算都会消耗更多电力。缓存的设计目的就是减少模型未来可能需要执行的计算次数,通过保存特定计算结果供后续查询使用,从而降低计算负担。存在多种类型的内存缓存,其中一种较为人知的是KV(键值)缓存。KV缓存适用于基于Transformer的模型,它通过减少生成回答所需的时间(以及算法工作量)来提高效率,加快响应速度。

(参见:推理)

神经网络指的是支撑深度学习的多层算法结构——更广泛地说,也是自大型语言模型兴起以来生成式AI工具爆发式增长的核心基础。

尽管受人类大脑密集互联路径启发来设计数据处理算法的想法早在20世纪40年代就已出现,但真正释放这一理论潜力的,是近年来图形处理硬件(GPU)的崛起——得益于游戏产业的发展。这些芯片非常适合训练具有更多层数的算法,远远超过早期时代的限制,使基于神经网络的AI系统在语音识别、自动驾驶导航和药物发现等多个领域都实现了显著性能提升。

RAMageddon 是一个有趣的新词,用来描述科技行业正在兴起的一个不太愉快的趋势:随机存取存储器(RAM)芯片的供应持续短缺。这些芯片几乎为我们在日常生活中使用的各类科技产品提供动力。随着人工智能产业的蓬勃发展,各大科技公司和AI实验室都在竞相打造功能最强、效率最高的AI系统,它们大量采购RAM来支撑数据中心,导致留给其他人的库存越来越少。这种供应瓶颈使得剩余的RAM芯片价格不断上涨。

这不仅影响了游戏行业(主要公司因难以找到内存芯片而不得不提高主机售价),也波及消费电子领域(内存短缺可能导致智能手机出货量出现十多年来的最大降幅),还牵连到企业级计算(因为这些公司无法获得足够的RAM用于自己的数据中心)。价格上涨的趋势预计只有在这场令人担忧的短缺结束时才会停止,但不幸的是,短期内并没有明显迹象表明这种情况会很快改善。

开发机器学习AI的过程被称为训练。简单来说,这意味着将数据输入模型,使其能够从模式中学习并生成有用的输出。

在这个AI流程中,可能会进入一些哲学层面的讨论——因为在预训练阶段,用于构建学习系统的数学结构本质上只是一堆层和随机数。正是通过训练,AI模型才真正成型。本质上,这是系统根据数据中的特征进行响应,从而调整输出以达成特定目标的过程——无论是识别猫的照片,还是按需生成一首俳句。

需要注意的是,并非所有AI都需要训练。基于规则的AI系统,例如线性聊天机器人,是按照人工预先设定的指令运行的,不需要经过训练。然而,这类AI系统可能比经过充分训练的自学习系统更加受限。

尽管如此,训练过程往往成本高昂,因为它需要大量输入数据——而且通常情况下,这类模型所需的输入量正呈上升趋势。

有时可以采用混合方法来简化模型开发并控制成本。比如对基于规则的AI进行数据驱动的微调,这种方式相比从零开始构建模型所需的数据量、计算资源、能耗和算法复杂度都要少得多。

标记(Tokens)是通过一种称为“分词”的过程创建的,该过程将原始数据分解并精炼成可被大语言模型(LLM)处理的独立单元。这类似于软件编译器将人类语言翻译成计算机可以理解的二进制代码,分词则通过用户查询将人类语言解释给AI程序,使其能够准备回应。

标记有多种类型——包括输入标记(即根据人类用户的查询生成的标记)、输出标记(即LLM在回应人类请求时生成的标记),以及推理标记,后者涉及更长、更复杂的任务和流程,这些通常发生在用户请求过程中。

在企业级AI中,标记的使用也决定了成本。由于标记等同于模型处理的数据量,它们已成为AI行业变现服务的主要方式。大多数AI公司按每标记计费。因此,企业在使用AI程序(如ChatGPT)时消耗的标记越多,支付给其AI服务提供商(如OpenAI)的费用就越高。

这是一种技术,即利用一个已训练好的AI模型作为起点,开发用于不同但通常相关任务的新模型,从而让先前训练周期中获得的知识得以复用。

迁移学习可以通过跳过部分模型开发流程来提升效率。它在目标任务的数据有限时尤其有用。但需要注意的是,这种方法存在局限性:依赖迁移学习获得通用能力的模型,可能仍需额外的数据训练才能在其特定领域表现良好。

(参见:微调)

权重是AI训练的核心,因为它们决定了在训练系统所用数据的不同特征(或输入变量)上分配的重要性程度,从而塑造AI模型的输出结果。

换言之,权重是定义给定训练任务中数据集中最显著特征的数值参数。它们通过将输入与数值相乘来实现功能。模型训练通常从随机分配的权重开始,随着训练过程推进,权重会不断调整,以使模型输出更接近目标。

例如,一个基于特定地区历史房地产数据训练出的房价预测AI模型,可能会为诸如卧室数量、浴室数量、房屋是否独立或半独立、是否有停车位或车库等特征赋予权重。

最终,模型对每个输入赋予的权重反映了这些因素在给定数据集下对房产价值的影响程度。

本文会定期更新新信息。

来源与参考

  1. 原始链接
  2. From LLMs to hallucinations, here's a simple guide to common AI terms | TechCrunch

收录于 2026-04-13