DeepSeek、Perplexity 與 AI 挑戰者的新浪潮
昂貴的人工智慧壟斷時代即將結束。過去兩年,業界普遍認為頂尖效能需要數十億美元的算力與巨大的能源消耗。然而,DeepSeek 與 Perplexity 正在證明「效率」能勝過「規模」。DeepSeek 以極低的訓練成本釋出了效能足以媲美產業巨頭的模型,震驚了市場。同時,Perplexity 透過提供直接且附帶引用的答案,取代傳統的連結列表,從根本上改變了人們與網路互動的方式。這不僅是新工具的出現,更是智慧經濟本質的轉變。焦點已從「模型能有多大」轉向「運行成本能有多低」。隨著這些挑戰者站穩腳步,傳統巨頭被迫捍衛其高利潤的商業模式,對抗這波優先考慮實用性而非炒作的精簡型競爭對手。
智慧市場的效率震撼
DeepSeek 代表了 AI 世界產品現實的轉變。當許多公司致力於打造盡可能龐大的神經網路時,該團隊專注於架構優化。他們的 DeepSeek-V3 模型採用了「專家混合」(Mixture of Experts)架構,僅針對特定任務啟動總參數的一小部分。這使得模型在維持高效能的同時,大幅降低了生成每個字詞所需的運算力。關於該公司的討論常聚焦於其不到 600 萬美元的訓練預算,這挑戰了「只有最富有的國家與企業才能打造前沿模型」的觀點,顯示高階機器學習的進入門檻比想像中更低。
Perplexity 則從使用者介面切入。它是一個「答案引擎」而非傳統搜尋引擎。它利用現有的大型語言模型掃描即時網路,提取相關資訊,並以附帶註腳的連貫段落呈現。這種設計解決了標準 AI 模型的主要弱點,即容易產生過時或完全捏造的事實。透過將每個回應建立在即時網路數據上,Perplexity 創造了一個比標準聊天機器人更適合專業研究的工具。該產品不僅是模型本身,還包含周邊的檢索與引用系統。這種方法對依賴使用者點擊多頁搜尋結果來獲取廣告收益的傳統搜尋供應商造成了巨大壓力。
BotNews.today 使用 AI 工具研究、撰寫、編輯和翻譯內容。 我們的團隊審查並監督此過程,以確保資訊實用、清晰且可靠。
廉價算力的地緣政治
這些挑戰者的全球影響力源於高效能推論(Inference)的普及化。當模型運行成本下降 90% 時,整合進日常軟體的潛力將呈指數級增長。過去因 API 價格過高而被排除在外的開發者,現在能打造出複雜的應用程式,這改變了整個產業的重心。如果最高效的模型來自傳統矽谷中心之外,那麼大型國內伺服器農場的戰略優勢便開始減弱。這迫使人們開始討論模型主權,以及國家是否應依賴少數中心化供應商,還是投資於自己的高效架構。這是一個值得關注的訊號,因為它正推動產業從「贏家通吃」的動態,轉向更分散且競爭激烈的市場。
企業買家已開始感受到這種獲利能力的轉變。低成本推論的敘事正在改變企業規劃長期技術堆疊的方式。如果像 DeepSeek 這樣的模型能以 10% 的價格提供競爭對手 80% 的效能,那麼對於大多數常規任務而言,昂貴選項的商業理由便不復存在。這創造了一個分層市場:最昂貴的模型保留給高度複雜的推理任務,而大部分工作則由高效的挑戰者處理。這種經濟現實也影響了廣告界。Perplexity 正在實驗一種將廣告整合進研究過程,而非作為干擾的模式。這可能重新定義品牌在人們不再訪問首頁或滾動搜尋結果的時代中接觸消費者的方式。從選擇 API 的軟體工程師,到試圖在即時答案世界中尋找受眾的行銷主管,每個人都能感受到這種影響。
與答案引擎共度的週二
為了理解現實世界的影響,想像一下金融分析師 Sarah 的一天。過去,Sarah 每天早上要打開十個不同的分頁來檢查市場動態與新聞報告,花費數小時將數據整理成晨間簡報。現在,她使用答案引擎同時查詢多個來源的特定數據點。她要求比較三份不同的季度報告,並在幾秒鐘內收到附帶引用的摘要。由於系統直接從原始文本中提取,數據的準確性很高。她不再花時間尋找資訊,而是花時間驗證資訊並據此做出決策。這就是搜尋分佈的故事:介面變成了研究員,而 Sarah 變成了編輯。她的工作流程更快,但也更依賴引擎提供的引用準確性。
當天稍晚,Sarah 需要編寫一個自訂腳本來自動化數據輸入任務。她不再使用昂貴的通用助理,而是使用像 DeepSeek 這樣的挑戰者所提供的專業程式碼模型。該模型能即時提供程式碼,且由於推論成本極低,公司允許她整天進行數千次小任務而無需擔心預算。這就是模型市場的變化方式——它正成為一種背景工具,而非珍貴資源。當 Sarah 意識到自己已經三天沒用過標準搜尋列時,傳統搜尋行為的壓力顯而易見。當她能獲得結構化的文件時,她根本不需要連結列表。以下幾點說明了她日常生活的轉變:
- Sarah 以即時更新的自動化引用摘要取代了手動新聞匯總。
- 她將低成本模型用於重複性的程式設計任務,這些任務過去因規模化成本過高而無法自動化。
- 隨著她從直接答案中找到更多價值,她對傳統廣告支援搜尋引擎的依賴幾乎降至零。
- 節省的時間讓她能專注於高階策略與客戶關係,而非數據蒐集。
免費智慧的隱藏代價
蘇格拉底式的懷疑論要求我們思考:為了這種效率,我們放棄了什麼?如果模型的訓練與運行成本顯著降低,這些節省的成本從何而來?我們必須質疑,用於訓練這些高效模型的數據是否與昂貴模型受到同樣嚴格的審查。價格戰可能會導致數據隱私與智慧財產權的競賽向下沉淪。如果一家公司對其模型收費不高,它是否在變現使用者輸入的數據?我們也必須考慮答案引擎模式的隱藏成本。當 Perplexity 摘要一個網站時,該網站就失去了一名訪客。如果原創內容的創作者沒有獲得補償,這些引擎所依賴的資訊來源最終可能會消失。如果讀者從不訪問原始來源,誰來資助 2026 的新聞報導與研究?
另一個困難的問題涉及這些精簡架構的可靠性。專家混合架構是否引入了更難檢測的新型錯誤?我們必須問自己,是否為了速度而犧牲了深度。使用者可能過度依賴摘要引用而從未檢查原始背景,這可能導致在追求簡潔答案的過程中,對複雜主題的細微差別產生膚淺的理解。我們也應對關於訓練成本的說法保持懷疑。這些數據是否完全透明?是否忽略了人力成本與硬體對環境的影響?隨著我們邁向廉價智慧的世界,我們必須對整合進生活的系統品質與倫理保持警惕。新產品發布的噪音往往會掩蓋其長期後果的訊號。
新挑戰者的技術內幕
對於進階使用者而言,這些挑戰者的吸引力在於其技術靈活性與整合能力。DeepSeek-V3 使用了針對 FP8 精度優化的訓練框架,這能在不顯著損失準確性的情況下實現更快的運算,是解釋其成本效率的重大技術里程碑。其多頭潛在注意力(Multi-head Latent Attention)機制減少了推論過程中的模型記憶體佔用,這對於希望在自有硬體上託管模型的開發者來說至關重要。許多新模型以開放權重(Open Weights)形式發布,意味著它們可以在本地或私有雲實例上運行。這對於無法冒險將敏感數據發送到第三方 API 的企業來說是一項「重大優勢」。在特定數據集上微調這些模型的能力,進一步提升了它們在法律、醫療或金融領域利基應用中的價值。
您有任何關於 AI 的故事、工具、趨勢或問題,認為我們應該報導嗎? 將您的文章想法寄給我們 — 我們很樂意聽取您的意見。Perplexity 透過其 API 提供了另一種技術價值,允許開發者將搜尋功能直接構建到自己的應用程式中,繞過了對獨立搜尋索引與語言模型的需求。系統會自動處理基礎數據與引用。然而,仍有一些限制需要考慮,例如 API 速率限制與即時網路搜尋的延遲,這可能是高流量應用程式的瓶頸。使用者還必須在搜尋速度與分析深度之間取得平衡。對於需要維護資訊來源稽核軌跡的進階使用者來說,本地儲存搜尋結果是另一個考量因素。以下技術因素目前定義了這些工具的競爭優勢:
- 使用多頭潛在注意力來減少長上下文任務中的 KV 快取記憶體使用量。
- 支援 FP8 訓練與推論,以最大化現代 GPU 硬體的吞吐量。
- 整合即時 RAG 管線,可處理數千個並發網路查詢。
- 提供開放權重,以便在安全環境中進行本地部署。
選擇性智慧的未來
DeepSeek 與 Perplexity 的崛起標誌著一個更成熟 AI 市場的開端。我們正從「會說話的模型」這種新奇感,轉向「能高效工作的模型」這種實用性。重心正轉向能以可持續價格提供高品質結果的供應商。這不僅是當前 2026 的趨勢,更是我們構建與消費數位服務方式的長期轉變。隨著這些挑戰者不斷完善產品,傳統搜尋與高成本模型供應商的壓力只會與日俱增。對使用者而言,這意味著更多的選擇與更好的工具;對產業而言,這意味著重新將焦點從蠻力運算轉向工程卓越。真正的贏家將是那些能區分炒作週期噪音與技術經濟結構性變革訊號的人。
編者按: 我們創建這個網站,是為了那些不是電腦高手,但仍希望了解人工智慧、更自信地使用它,並追隨已經到來的未來的人們,提供一個多語言的人工智慧新聞和指南中心。
發現錯誤或需要修正的地方?請告訴我們。