我们是如何走到这一步的:AI 热潮简史
当前的人工智能浪潮并非始于 2022 年底那个爆火的聊天机器人。它源于 2017 年由 Google 工程师发表的一篇名为《Attention Is All You Need》的重磅研究论文。这份文档引入了 Transformer 架构,彻底改变了机器处理人类语言的方式。在此之前,计算机很难保持长句的上下文,往往读到句末就忘了句首。Transformer 通过让模型同时权衡不同词汇的重要性解决了这个问题。这一单一的技术转变正是现代工具显得连贯而非机械的核心原因。我们目前正生活在这一决策从顺序处理转向并行处理后的规模化影响之中。这段历史不仅仅关乎代码的优化,更关乎我们与全球信息交互方式的根本性变革。从“搜索答案”到“生成答案”的转变,已经彻底重塑了今天每一位互联网用户的基本预期。
统计预测胜过逻辑
要理解当前的技术现状,必须摒弃这些系统正在“思考”的想法。它们并没有在思考,而是巨大的统计引擎,负责预测序列中的下一个片段。当你输入提示词时,系统会查看其训练数据,以确定哪个词最有可能出现在你的输入之后。这与过去基于逻辑的编程大相径庭。在过去几十年里,软件遵循严格的“如果-那么”规则。如果用户点击按钮,软件就执行特定操作。而今天,输出是概率性的。这意味着相同的输入可能会根据模型的设置产生不同的结果。这种转变创造了一种新型软件,它非常灵活,但也容易犯传统计算器绝不会犯的错误。
这种训练的规模感让结果显得像是“智能”。各大公司几乎抓取了整个公共互联网来喂养这些模型,包括书籍、文章、代码库和论坛帖子。通过分析数十亿个参数,模型学会了人类思维的结构,却从未真正理解词汇的含义。这种理解的缺失,解释了为什么模型可以写出完美的法律摘要,却在简单的数学题上栽跟头。它不是在计算,而是在模仿那些曾经做过数学题的人的模式。对于任何在专业领域使用这些工具的人来说,理解这种区别至关重要。这解释了为什么这些系统即使在完全错误时也表现得如此自信。
BotNews.today 使用人工智能工具进行内容研究、撰写、编辑和翻译。 我们的团队审查并监督整个过程,以确保信息有用、清晰和可靠。
全球芯片军备竞赛
这种技术变革的影响远不止于软件,它还引发了一场针对硬件的全球地缘政治争夺战。具体来说,世界现在依赖于高端图形处理单元,即 GPU。这些芯片最初是为电子游戏设计的,但它们同时执行大量小型计算的能力使其成为 AI 的完美载体。一家名为 NVIDIA 的公司,因生产训练这些模型所需的芯片,如今在全球经济中占据了核心地位。各国现在将这些芯片视为石油或黄金,它们是决定哪些国家将在未来十年经济增长中领先的战略资产。
这种依赖性在买得起大规模算力的群体与买不起的群体之间造成了鸿沟。训练一个顶级模型现在需要耗费数亿美元的电力和硬件成本。这种高门槛意味着美国和中国的少数大型企业掌握了大部分权力。这种影响力的集中是全球监管机构关注的主要问题,它影响了从数据存储方式到初创公司获取基础工具成本的一切。该行业的经济重心已经转向了数据中心的所有者。这与互联网早期那种小团队能以极低预算打造世界级产品的时代相比,发生了重大变化。在 2026,进入门槛比以往任何时候都要高。
当抽象概念成为日常工作
对于大多数人来说,这项技术的历史远不如其日常实用性重要。以一位名叫 Sarah 的营销经理为例。几年前,她的一天需要花费数小时进行手动研究和起草。她会搜索趋势、阅读几十篇文章,然后将它们综合成一份报告。今天,她的工作流程变了。她使用模型来总结热门趋势并起草初步大纲。她不再仅仅是撰稿人,而是机器生成内容的编辑。这种变化正在涉及键盘的每个行业中发生。这不仅仅是速度的问题,而是关于如何摆脱“空白页”的困境。机器提供初稿,而人类提供方向。
这种转变对就业保障和技能发展有着实际的影响。如果一名初级分析师现在能利用这些工具完成三个人的工作,那么入门级就业市场会怎样?我们正看到向“超级用户”模式的转变,即一个人管理多个 AI 代理来完成复杂任务。这在软件工程中显而易见,像 GitHub Copilot 这样的工具可以建议整块代码。开发人员花在打字上的时间减少了,花在审核上的时间增加了。这种新现实需要一套不同的技能。你不再需要记住每一条语法规则,你需要知道如何提出正确的问题,以及如何在看似完美的文本海洋中发现细微的错误。在 2026,专业人士的一天现在是一个不断提示和验证的循环。以下是它在实践中的一些表现:
- 软件开发人员使用模型编写重复的单元测试和样板代码。
- 法律助理使用它们扫描数千页的证据材料以查找特定关键词。
- 医学研究人员使用它们预测不同蛋白质结构可能如何相互作用。
- 客户服务团队使用它们处理常规咨询,无需人工干预。
黑盒背后的隐形成本
随着我们越来越依赖这些系统,我们必须提出关于其隐形成本的棘手问题。首先是环境影响。对大语言模型的单次查询所需的电力远高于标准的 Google 搜索。当乘以数百万用户时,碳足迹就变得相当可观。此外还有用水问题。数据中心需要大量水来冷却运行这些模型的服务器。我们愿意为了更快的邮件撰写而牺牲当地的水安全吗?这是许多数据中心附近的社区开始提出的问题。我们还需要审视数据本身。大多数模型是在未经创作者同意的情况下对受版权保护的材料进行训练的。这导致了艺术家和作家的一波诉讼潮,他们认为自己的作品被窃取,用来构建一个最终可能取代他们的产品。
然后是“黑盒”问题。即使是构建这些模型的工程师,也无法完全理解它们为何做出某些决定。当 AI 被用于招聘或贷款审批等敏感任务时,这种缺乏透明度的情况非常危险。如果模型对某个群体产生了偏见,就很难找到并修复根本原因。我们本质上是将重要的社会决策外包给了一个无法解释自身推理过程的系统。我们如何追究机器的责任?我们如何确保用于训练这些系统的数据不会强化旧有的偏见?这些并非理论问题,而是 最新的 AI 进展 正在试图解决的现实问题,尽管成效各异。
你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。
延迟与 Token 经济
对于那些希望将这些工具集成到专业工作流程中的人来说,技术细节至关重要。与这些模型的大多数交互都是通过应用程序编程接口(API)进行的。在这里,你会遇到 Token 的概念。一个 Token 大约相当于四个英文字符。模型不读取单词,它们读取 Token。这一点很重要,因为大多数提供商都是根据处理的 Token 数量收费的。如果你正在构建一个分析长文档的工具,成本会迅速增加。你还必须管理上下文窗口,即模型一次可以“记住”的信息量。早期模型窗口很小,但新版本可以在单个提示中处理整本书。然而,更大的窗口往往会导致更高的延迟,并增加模型在文本中间丢失特定细节的可能性。
另一个关键领域是本地存储和隐私流程。许多企业对将敏感数据发送到第三方服务器持谨慎态度。这导致了像 Llama 3 这样可以在内部硬件上运行的本地模型的兴起。在本地运行模型需要 GPU 上有大量的 VRAM。例如,一个 700 亿参数的模型通常需要两张高端显卡才能以可用速度运行。这就是量化(quantization)发挥作用的地方。这是一种通过降低计算数值精度来缩小模型大小的技术。这使得强大的模型可以在消费级硬件上运行,且精度仅有轻微下降。开发人员必须权衡这些因素:
- API 成本与在本地运行模型的硬件费用。
- 小型模型的速度与大型模型的推理能力。
- 将数据保留在本地的安全性与云端的便利性。
- 高峰时段公共 API 的速率限制。
前行之路
AI 热潮的历史是一个将单一好创意规模化的故事。通过采用 Transformer 架构并投入海量的数据和算力,我们创造了一种感觉像是计算新时代的东西。但我们仍处于早期阶段。许多人今天感受到的困惑,源于技术能做什么与我们期望它做什么之间的差距。它是一个增强工具,而不是人类判断力的替代品。未来几年最成功的人,将是那些理解这些系统统计本质的人。他们会知道何时信任机器,何时验证其工作。我们正在迈向一个未来,即管理 AI 的能力将像使用文字处理软件一样成为基本技能。
编者按:我们创建本网站,旨在作为一个多语言人工智能新闻和指南中心,为那些并非电脑极客,但仍然希望了解人工智能、更有信心地使用它并关注正在到来的未来的人群服务。
发现错误或需要更正的地方?告诉我们。