創辦人、評論家與研究員:值得一讀的對話
大多數人都能說出 OpenAI 的執行長是誰,但很少人能叫出那些定義了當前大型語言模型時代的論文作者。這種知識落差導致我們對技術進步的認知產生了扭曲。我們將人工智慧視為一系列的產品發布,但它實際上是數學突破的緩慢積累。創辦人負責管理資本與公眾敘事,而研究員則負責管理權重與邏輯。理解這兩者的差異,是看穿行銷迷霧的唯一途徑。如果你只追隨創辦人,你就像在看電影;如果你追隨研究員,你就是在閱讀劇本。本文將探討為何這種區別至關重要,以及如何識別那些真正決定產業未來的訊號。我們將跳過那些充滿魅力的演講,直視實驗室裡的冷酷現實。現在是時候將焦點轉向那些撰寫程式碼的人,而不僅僅是那些簽署新聞稿的人了。
機器時代的隱形建築師
創辦人是公眾形象。他們在世界經濟論壇(World Economic Forum)發言,並在國會作證。他們的工作是確保數十億美元的資金,並建立一個讓人覺得「勢在必行」的品牌。他們使用的詞彙帶有魔法般的色彩。研究員則不同,他們沉浸在 Python 和 LaTeX 中,關心的是損失函數(loss functions)與 token 效率。創辦人可能會說他們的模型在「思考」,但研究員會告訴你,它只是根據特定的機率分佈在預測下一個最可能的字詞。混亂之所以產生,是因為媒體將這兩群人混為一談。當執行長說某個模型將解決氣候變遷時,那是一場銷售話術;當研究員發表關於稀疏自動編碼器(sparse autoencoders)的論文時,那是一個技術主張。前者是希望,後者是事實。
大眾常將希望誤認為事實,這導致了過度承諾與交付不足的循環。要理解這個領域,你必須將賣車的人與設計引擎的人分開來看。引擎設計師清楚知道哪裡的螺絲鬆了,但銷售員永遠不會告訴你這些,因為他們的工作是維持股價高檔。每當新模型發布時,我們都會看到這種戲碼:創辦人發布一則神秘的推文來炒作,而研究員則在 arXiv 上發布技術報告連結。推文獲得百萬次瀏覽,而技術報告則由少數幾千名真正動手實作的人閱讀。這創造了一個回饋循環,使得最響亮的聲音定義了其他所有人的現實。
超越創新的公眾形象
這種分歧對全球政策產生了巨大的影響。各國政府目前正根據創辦人的警告來制定法律。這些創辦人經常警告那些聽起來像科幻小說的生存風險,這使得焦點集中在假設的未來,而非當前的危害。與此同時,研究員則指出數據偏見與能源消耗等迫切問題。如果只聽信那些知名人士,我們可能會冒著監管錯誤方向的風險。我們可能會禁止未來的超級智慧,卻忽略了當前模型為了冷卻資料中心而耗盡小鎮地下水的現實。這不僅是美國的問題,在歐洲和亞洲,同樣的動態也正在發生。
獲得最多曝光的聲音,往往是那些擁有最大行銷預算的聲音。這創造了一個「贏家通吃」的環境,讓少數幾家公司為整個地球設定議程。如果我們不拓寬視野,我們就等於允許矽谷的少數人來定義什麼是安全、什麼是可能的。這種權力集中本身就是一種風險,它限制了這個本該多元的領域中的思想多樣性。我們需要聽聽多倫多大學或東京實驗室的聲音,就像我們聽取舊金山的人一樣。科學進步是一項全球性的努力,但目前的敘事卻是一種地方性的壟斷。我們需要關注像 Nature 這樣的期刊,才能看到企業董事會之外真正的進步。
為什麼世界總是在聽錯的人說話
試想一下,某大型實驗室首席研究員的一天。他們醒來後檢查一個耗資三百萬美元的訓練結果,發現模型的幻覺(hallucination)比預期嚴重。他們花十個小時查看數據叢集以找出雜訊。他們想的不是 2024 年的選舉或人類的命運,而是在思考為什麼模型無法理解複雜句子中的否定句。他們盯著神經元活化的熱圖(heat maps)。他們的成功是以每個字元的位元數(bits per character)或特定基準測試的準確率來衡量的。現在,再看看創辦人的一天:他們搭乘私人飛機去會見國家元首,談論的是新經濟中價值數兆美元的機會。
研究員處理的是「如何做」,創辦人處理的是「為什麼它值錢」。對於開發應用程式的開發者來說,研究員是更重要的人物,因為他們決定了 API 的延遲和上下文視窗(context window),而創辦人決定的是價格。如果你想創業,你需要知道這項技術是否真的能做到創辦人所說的那樣。通常,它做不到。我們在自動駕駛的早期階段就看到了這一點:創辦人說我們在 2026 就會有數百萬輛機器人計程車,但研究員心知肚明,大雨中的邊緣案例(edge cases)仍是未解難題。大眾相信了創辦人,而研究員才是對的。
同樣的模式正在生成式 AI 領域重演。我們被告知模型很快就會取代律師和醫生,但如果你閱讀技術論文,就會發現模型在基本的邏輯一致性上仍有困難。展示品與現實之間的差距,正是公司虧損的地方。你可以找到一篇關於人工智慧趨勢的深度報導,看看這些技術極限在今天是如何被測試的。這種區別就是穩健投資與投機泡沫之間的差異。當你聽到新的主張時,問問自己它是來自論文還是新聞稿。答案會告訴你該給予它多少權重。來自 MIT Technology Review 的記者經常強調實驗室與遊說團體之間的這種差距。我們必須記住,創辦人有動機隱藏缺陷,而研究員則有動機去發現它們。前者製造炒作,後者建立真相。從長遠來看,真相才是唯一能持續的東西。我們在 2026 就看到了這一點,當時第一波炒作在技術現實的壓力下開始冷卻。
實驗室與董事會的週二
我們必須對當前的發展路徑提出困難的問題。創辦人聲稱將造福所有人的研究,究竟是誰在買單?大多數頂尖研究員已經離開學術界轉投私人實驗室,這意味著他們產出的知識不再是公共財,而是企業機密。當用來證明觀點的數據被隱藏在付費牆後時,科學方法會發生什麼事?我們正看到從開放科學轉向封閉競爭優勢的模式。少數個人的名聲究竟是在幫助這個領域,還是創造了一種阻礙異議的個人崇拜?如果研究員發現旗艦模型有重大缺陷,他們在可能拖累公司估值的情況下,還敢安全地報告嗎?
BotNews.today 使用 AI 工具研究、撰寫、編輯和翻譯內容。 我們的團隊審查並監督此過程,以確保資訊實用、清晰且可靠。
這些公司面臨的財務壓力巨大。我們還必須考慮環境成本。為了追求稍微好一點的基準測試分數,是否值得付出訓練這些模型所帶來的巨大碳足跡?我們常談論 AI 對環境的好處,但很少看到兩者平衡的帳本。最後,這些模型所訓練的文化歸誰所有?研究員利用網際網路的集體產出來建立系統,而創辦人則向大眾收取費用,以存取同一產出的精簡版本。這是一種在頭條新聞中很少被討論的財富轉移。這些不僅是技術問題,更是需要的不僅僅是更好的演算法才能解決的社會與倫理困境。
技術限制與在地化實作
對於那些在這些平台上開發的人來說,技術細節比哲學更重要。目前的 API 限制是企業採用的主要瓶頸。大多數供應商都有嚴格的速率限制,阻礙了高容量的即時處理。這就是為什麼許多公司正在研究在地儲存與在地執行。使用像 Llama 3 這樣的模型在本地硬體上運行,可以實現更好的數據隱私並降低長期成本。然而,硬體要求很高。要以不錯的速度運行一個 700 億參數的模型,你需要具備顯著 VRAM 的高階 GPU。這就是極客領域與金融領域交會的地方。H100 叢集的成本是一個進入門檻,將權力牢牢掌握在富人手中。
我們也看到向專業化微調(fine tuning)的轉變。開發者不再對所有事情使用通用模型,而是使用在特定數據集上訓練的小型模型。這提高了準確性並減少了 token 數量。這裡的技術挑戰在於數據策展(data curation)。如果輸入數據很差,微調後的模型會比通用模型更糟。我們也看到更多人使用檢索增強生成(RAG)來將模型建立在事實數據上。這繞過了對龐大上下文視窗的需求並減少了幻覺。但 RAG 也有其局限性,特別是在處理檢索文件的排序方式上。如果搜尋步驟失敗,模型輸出就毫無用處。大多數使用者並沒有意識到,AI 的效能取決於它查詢的資料庫,與模型本身同樣重要。
資訊的最終過濾器
AI 的未來不是由單一個人講述的單一故事。這是一場混亂且持續進行的辯論,參與者是那些兜售願景的人與那些建立現實的人。要成為聰明的科技新聞消費者,你必須學會看穿充滿魅力的創辦人。去尋找論文上的名字,去尋找那些願意談論模型「做不到什麼」的研究員。產業內的矛盾並非錯誤(bugs),它們是故事中最誠實的部分。這個領域將持續演進,因為技術問題遠未解決。一個活生生的問題依然存在:我們能否在不消耗當前時代所定義的巨大資源的情況下,建立一個真正智慧的系統?在我們回答這個問題之前,炒作將繼續超越科學。我們必須對任何承諾完美解決方案卻未提及權衡取捨的敘事保持懷疑。
編者按: 我們創建這個網站,是為了那些不是電腦高手,但仍希望了解人工智慧、更自信地使用它,並追隨已經到來的未來的人們,提供一個多語言的人工智慧新聞和指南中心。
發現錯誤或需要修正的地方?請告訴我們。