我們是如何走到這一步的:AI 熱潮的簡短歷史
當前的人工智慧熱潮並非始於 2022 年底的某個病毒式傳播的 chatbot。它起源於 Google 工程師在 2017 年發表的一篇名為《Attention Is All You Need》的關鍵研究論文。這份文件引入了 Transformer 架構,徹底改變了機器處理人類語言的方式。在此之前,電腦很難維持長句的語境,往往在讀到句子結尾時就忘了開頭。Transformer 透過讓模型同時權衡不同單詞的重要性,解決了這個問題。這項單一的技術轉變,正是現代工具之所以感覺流暢而非機械化的主要原因。我們目前正生活在那個「放棄順序處理」決策所帶來的規模化後果之中。這段歷史不僅僅是關於更好的程式碼,更是關於我們在全球層面上與資訊互動方式的根本性變革。從「搜尋答案」轉向「生成答案」,已經改變了當今每一位網際網路使用者的基本期望。
統計預測勝過邏輯
要理解當前的技術狀態,必須拋棄這些系統正在「思考」的想法。它們並非如此。它們是龐大的統計引擎,負責預測序列中的下一個片段。當你輸入提示詞(prompt)時,系統會查看其訓練數據,以確定哪個單詞最有可能接在你的輸入之後。這與過去基於邏輯的程式設計截然不同。在過去的幾十年裡,軟體遵循嚴格的「如果-那麼」(if-then)規則;如果使用者點擊按鈕,軟體就會執行特定動作。如今,輸出是機率性的,這意味著相同的輸入可能會根據模型的設定產生不同的結果。這種轉變創造了一種新型軟體,它既靈活,卻也容易犯下傳統計算機絕不會犯的錯誤。
這種訓練規模正是讓結果感覺像「智慧」的原因。企業幾乎抓取了整個公開的網際網路來餵養這些模型,包括書籍、文章、程式碼庫和論壇貼文。透過分析數十億個參數,模型學會了人類思維的結構,卻從未真正理解這些詞彙的含義。這種缺乏理解的特性,解釋了為什麼模型可以寫出一份完美的法律摘要,卻在簡單的數學問題上失敗。它不是在計算,而是在模仿那些曾經做過數學的人的模式。對於任何在專業領域使用這些工具的人來說,理解這種區別至關重要。這也解釋了為什麼這些系統即使完全錯誤時,看起來依然信心十足。
BotNews.today 使用 AI 工具研究、撰寫、編輯和翻譯內容。 我們的團隊審查並監督此過程,以確保資訊實用、清晰且可靠。
全球矽晶片軍備競賽
這場技術轉變的影響遠不止於軟體,它引發了一場針對硬體的巨大地緣政治爭奪戰。具體來說,世界現在依賴於高階圖形處理器(GPU)。這些晶片最初是為電子遊戲設計的,但它們同時執行大量小型計算的能力,使其成為 AI 的完美選擇。一家名為 NVIDIA 的公司,現在在全球經濟中佔據核心地位,因為它生產訓練這些模型所需的晶片。各國現在將這些晶片視為石油或黃金,它們是決定哪些國家將在未來十年經濟成長中領先的戰略資產。
這種依賴性在負擔得起龐大運算能力的人與負擔不起的人之間造成了鴻溝。訓練一個頂級模型現在需要花費數億美元的電力和硬體成本。這種高門檻意味著美國和中國的少數大型企業掌握了大部分權力。這種影響力的集中是全球監管機構的主要擔憂,它影響了從數據儲存方式到新創公司存取基礎工具所需支付的費用等方方面面。該產業的經濟重力已經轉向了數據中心的所有者。這與早期網際網路時代有顯著不同,當時一個小團隊可以用極低的預算打造出世界級的產品。在 2026,進入門檻比以往任何時候都要高。
當抽象概念變成日常工作
對於大多數人來說,這項技術的歷史不如其日常效用重要。以一位名叫 Sarah 的行銷經理為例。幾年前,她的一天需要花費數小時進行手動研究和起草文件。她必須搜尋趨勢、閱讀數十篇文章,然後將其綜合為報告。今天,她的工作流程不同了。她使用模型來總結熱門趨勢並起草初步大綱。她不再只是個寫作者,而是機器生成內容的編輯。這種變化正在涉及鍵盤的每個產業中發生。這不僅僅是關於速度,而是關於「消除空白頁」。機器提供初稿,而人類提供方向。
這種轉變對工作保障和技能發展具有實際影響。如果一名初級分析師現在可以使用這些工具完成三個人的工作,那麼入門級就業市場會發生什麼事?我們正看到一種向「超級使用者」模式的轉變,即一個人管理多個 AI 代理來完成複雜任務。這在軟體工程中顯而易見,GitHub Copilot 等工具可以建議整塊程式碼。開發人員花在打字上的時間變少了,花在審核上的時間變多了。這種新現實需要一套不同的技能。你不再需要記住每一條語法規則,你需要知道如何提出正確的問題,以及如何在完美無缺的文字海中發現細微的錯誤。在 2026,專業人士的一天現在是一個不斷提示(prompting)和驗證的循環。以下是這在實踐中的一些樣子:
- 軟體開發人員使用模型編寫重複的單元測試和樣板程式碼。
- 法律助理使用它們掃描數千頁的發現文件以尋找特定關鍵字。
- 醫學研究人員使用它們預測不同蛋白質結構可能如何相互作用。
- 客戶服務團隊使用它們處理日常諮詢,無需人工干預。
黑盒子的隱形成本
隨著我們越來越依賴這些系統,我們必須詢問關於其隱形成本的棘手問題。首先是環境影響。對大型語言模型的單次查詢所消耗的電力遠高於標準的 Google 搜尋。當乘以數百萬使用者時,碳足跡變得相當可觀。此外還有用水問題,數據中心需要大量水來冷卻運行這些模型的伺服器。我們是否願意為了更快的電子郵件起草而犧牲當地的水資源安全?這是許多數據中心附近的社區開始提出的問題。我們還需要審視數據本身。大多數模型是在未經創作者同意的情況下,使用受版權保護的材料進行訓練的。這導致了藝術家和作家的一波訴訟潮,他們認為自己的作品被竊取,用來打造一個最終可能取代他們的產品。
接著是「黑盒子」問題。即使是構建這些模型的工程師,也無法完全理解它們為何做出某些決定。當 AI 被用於招聘或貸款審批等敏感任務時,這種缺乏透明度的情況非常危險。如果模型對特定群體產生偏見,就很難找到並修復根本原因。我們本質上是將重要的社會決策外包給一個無法解釋自身推理過程的系統。我們該如何讓機器負責?我們該如何確保用於訓練這些系統的數據不會強化舊有的偏見?這些都不是理論問題,而是 最新的 AI 發展 正試圖以不同程度的成功來解決的現實議題。
您有任何關於 AI 的故事、工具、趨勢或問題,認為我們應該報導嗎? 將您的文章想法寄給我們 — 我們很樂意聽取您的意見。
延遲與 Token 經濟
對於那些希望將這些工具整合到專業工作流程中的人來說,技術細節至關重要。與這些模型的大多數互動都是透過應用程式介面(API)進行的。在這裡,你會遇到「Token」的概念。一個 Token 大約是四個英文字元。模型不讀單詞,它們讀 Token。這很重要,因為大多數供應商是根據處理的 Token 數量來收費的。如果你正在構建一個分析長文件的工具,你的成本可能會迅速增加。你還必須管理上下文視窗(context window),這是模型一次能「記住」的資訊量。早期模型視窗很小,但較新的版本可以在單次提示中處理整本書。然而,較大的視窗通常會導致更高的延遲,並增加模型在文字中間丟失特定細節的可能性。
另一個關鍵領域是本地儲存和隱私處理。許多企業對將敏感數據發送到第三方伺服器感到猶豫。這導致了像 Llama 3 這樣可以在內部硬體上運行的本地模型的興起。在本地運行模型需要 GPU 上有足夠的 VRAM。例如,一個 700 億參數的模型通常需要兩張高階顯示卡才能以可用速度運行。這就是量化(quantization)發揮作用的地方。這是一種透過降低計算數值精度來縮小模型尺寸的技術,這使得強大的模型可以在消費級硬體上運行,且準確度僅有輕微下降。開發人員必須平衡以下因素:
- API 成本與在本地運行模型的硬體費用。
- 小型模型的速度與大型模型的推理能力。
- 將數據保留在本地的安全性與雲端的便利性。
- 在高峰使用時段,公共 API 的速率限制(rate-throttling)限制。
前進之路
AI 熱潮的歷史是一個關於將單一好點子規模化的故事。透過採用 Transformer 架構並投入大量的數據和運算能力,我們創造出了一種感覺像是計算新時代的東西。但我們仍處於早期階段。許多人今天感受到的困惑,來自於技術能做到的與我們期望它做到的之間的差距。它是一種增強工具,而不是人類判斷力的替代品。未來幾年最成功的人,將是那些理解這些系統統計本質的人。他們會知道何時該信任機器,何時該驗證其工作。我們正走向一個未來,在那裡,管理 AI 的能力將與使用文書處理軟體的能力一樣基礎。
編者按: 我們創建這個網站,是為了那些不是電腦高手,但仍希望了解人工智慧、更自信地使用它,並追隨已經到來的未來的人們,提供一個多語言的人工智慧新聞和指南中心。
發現錯誤或需要修正的地方?請告訴我們。