在嘈杂的 AI 时代,如何清晰地评估性能?
那种被简单的聊天回复所震撼的时代已经结束了。我们现在进入了一个实用性才是商业和个人生产力唯一衡量标准的时期。过去两年,人们的讨论集中在这些系统理论上能做什么。今天,重点已转向它们在压力下表现得有多可靠。这种转变要求我们摆脱华而不实的演示,转向严谨的评估。衡量性能不再是检查模型是否会写诗,而是看它能否在不丢失任何细节的情况下准确处理一千份法律文件。这种变化是因为新鲜感已经褪去。用户现在期望这些工具能像数据库或计算器一样可靠地运行。当它们出错时,代价是实实在在的。企业发现,一个 90% 时间正确的模型可能比一个 50% 时间正确的模型更危险。90% 的模型会产生一种虚假的安全感,从而导致昂贵的错误。 读者对这个话题的困惑通常源于对“性能”实际含义的误解。在传统软件中,性能是指速度和正常运行时间。而在当前时代,性能是逻辑、准确性和成本的综合体。一个系统可能速度极快,但给出的答案却微妙地错误。这就是噪音出现的地方。我们被各种基准测试所淹没,这些测试基于狭窄的实验声称某个模型优于另一个。这些测试往往无法反映人们实际使用工具的方式。最近的变化是人们意识到基准测试正在被“操纵”。开发者专门训练模型来通过这些测试,这使得结果对普通用户来说意义不大。要看穿这些噪音,你必须观察系统如何处理你的特定数据和工作流。这不是一个静态领域。随着我们发现这些工具可能出错的新方式,我们衡量它们的方法也在不断演变。你不能仅靠一个分数来判断一个工具是否值得你的时间和金钱。从速度到质量的转变要理解当前的技术状态,你必须将原始算力与实际应用区分开来。原始算力是处理数十亿参数的能力。实际应用则是总结会议内容而不遗漏最重要行动项的能力。大多数人关注的数字是错误的。他们关注模型每秒能生成多少 token。虽然速度对流畅的用户体验很重要,但它是一个次要指标。主要指标是相对于目标的输出质量。这很难衡量,因为质量是主观的。然而,我们看到自动化评估系统的兴起,它们使用一个模型来给另一个模型打分。这创造了一个既有帮助又可能具有欺骗性的反馈循环。如果评分者本身有缺陷,整个衡量系统就会崩溃。这就是为什么人工审核仍然是高风险任务的黄金标准。你可以亲自尝试一下:将同一个 prompt 发送给三个不同的工具,并比较它们答案的细微差别。你会很快发现,广告宣传分数最高的那个,并不总是提供最有用回复的那个。 这种衡量危机在全球范围内产生了重大影响。政府和大型企业正基于这些指标做出数十亿美元的决策。在美国,国家标准与技术研究院(NIST)正致力于为 AI 风险管理建立更好的框架。你可以在 NIST 官方网站上找到他们的工作。如果我们不能准确衡量性能,就无法有效地监管它。这导致企业可能会部署有偏见或不可靠的系统,因为它们通过了有缺陷的测试。在欧洲,重点在于透明度,并确保用户知道他们何时在与自动化系统交互。风险很高,因为这些工具正在被整合到电网和医疗系统等关键基础设施中。在这些领域失败不仅仅是小麻烦,而是公共安全问题。全球社区正在竞相寻找一种通用的性能语言,但我们还没做到。每个地区都有自己的优先事项,这使得单一标准难以实现。 想象一下新加坡的一位物流经理 Sarah。她使用自动化系统来协调跨太平洋的航运路线。周二早上,系统建议了一条节省四天航行时间的路线。这看起来是一个巨大的性能胜利。然而,Sarah 注意到该路线经过一个季节性风暴高风险区域,而模型并未考虑到这一点。她从模型收到的数据基于历史平均值,在技术上是准确的,但它未能纳入实时天气模式。这就是现代专业人士的日常生活。你必须不断检查一台比你快但缺乏你情境感知能力的机器的工作。Sarah 必须决定是相信机器以节省成本,还是相信自己的直觉以求稳。如果她听从机器而导致船只失踪,损失将达数百万美元。如果她忽略机器而天气保持晴朗,她就浪费了时间和燃料。这就是性能衡量的现实利害关系。这与抽象分数无关,而是关于做出决策的信心。 人工审核的作用不是去完成工作,而是去审计工作。这是许多公司出错的地方。他们试图将审计过程也自动化。这创造了一个闭环,错误可能会在不被察觉的情况下传播。在创意代理机构中,作者可能会使用 AI 生成初稿。该工具的性能取决于它为作者节省了多少时间。如果作者必须花费三个小时来修改一个仅需十秒生成的草稿,那么性能实际上是负面的。目标是找到一个平衡点,即机器承担繁重的工作,而人类提供最后 5% 的润色。这 5% 是防止输出听起来像机器人或包含事实错误的关键。此内容是在机器的帮助下创建的,但其背后的策略是人类的。 BotNews.today 使用人工智能工具进行内容研究、撰写、编辑和翻译。 我们的团队审查并监督整个过程,以确保信息有用、清晰和可靠。 你必须时刻寻找自动化的隐性成本。这些成本包括验证所花费的时间,以及如果错误公开后可能带来的品牌声誉损失。最成功的创作者是将这些工具视为助手而非替代品的人。他们知道机器是扩展能力的工具,而不是思维的替代品。 你有什么想让我们报道的AI故事、工具、趋势或问题吗? 向我们提交你的文章想法 — 我们很乐意听取。 我们现在必须解决这些系统中“衡量不确定性”的问题。当模型给你一个答案时,它不会告诉你它的信心程度。它以同样的权威感呈现每一条陈述。这是一个主要的局限性。基准测试中 2% 的提升可能只是统计噪音,而非真正的进步。我们必须提出关于这些改进的隐性成本的难题。一个更准确的模型是否需要多消耗十倍的电力才能运行?它是否需要更多的个人数据才能有效?行业通常忽略这些问题,转而追求吸引眼球的数字。我们需要超越平台报告,深入到解读层面。这意味着不仅要问分数是多少,还要问这个分数是如何计算的。如果模型是在训练期间已经见过的数据上进行测试的,那么这个分数就是谎言。这被称为数据污染,是行业内普遍存在的问题。你可以在 Stanford HAI 指数报告中阅读更多关于这些基准测试状态的内容。我们目前在许多方面都是盲人摸象,依赖于为不同计算时代设计的指标。 对于高级用户来说,真正的性能故事在于“工作流集成”和技术规格。这不仅仅关乎模型,还关乎其周围的基础设施。如果你在本地运行模型,你会受到 VRAM 和模型量化水平的限制。一个从 16-bit 压缩到 4-bit 的模型运行速度更快,内存占用更少,但其推理能力会下降。这是每个开发者都必须管理的权衡。API 限制也起着巨大的作用。如果你的应用程序需要每分钟进行一千次调用,API 的延迟就会成为你的瓶颈。你可能会发现,在自己的硬件上运行一个更小、更快的模型,比通过 cloud 访问一个庞大的模型更有效。在 2026 中,我们看到人们对本地存储解决方案的兴趣激增,这些方案允许模型在不将文件发送到服务器的情况下访问你的个人文件。这提高了隐私性,但增加了设置的复杂性。你必须管理自己的向量数据库,并确保检索过程准确。如果检索效果差,即使是最好的模型也会产生糟糕的结果。你还应该关注