AI 時代下,人類價值觀的真正意義
中立程式碼的迷思關於人工智慧的討論,往往聚焦於技術基準與運算能力。我們談論參數與 PB 等級的數據,彷彿這些就是唯一重要的指標。這種焦點模糊了一個更迫切的現實:每一個大型語言模型都是塑造它的「人類偏好」的鏡像。根本不存在所謂「中立」的演算法。當系統給出答案時,它並非從客觀真理的真空地帶提取資訊,而是反映了由開發者與數據標註員所設定的一套特定加權價值觀。核心結論很簡單:我們並非在教導機器思考,而是在教導它們模仿我們特定且往往相互矛盾的社會規範。這種從邏輯轉向倫理的變革,是自網際網路發明以來計算領域最重大的改變。它將責任負擔從硬體轉移到了定義何謂「正確」答案的人類身上。 產業近期已從單純的效能轉向安全與對齊(alignment)。這聽起來像是技術調整,但實際上是一個深刻的政治過程。當我們要求模型做到「有幫助、無害且誠實」時,這些詞彙在不同文化中具有截然不同的含義。在舊金山董事會看來普世的價值,在雅加達可能被視為冒犯或無關緊要。全球規模與在地價值觀之間的張力,是現代科技的主要衝突。我們必須停止將 AI 視為自主力量,並開始將其視為人類意圖的策展延伸。這需要看穿行銷炒作,去審視幕後所做的實際選擇。人類選擇的機械鏡像要理解價值觀如何進入機器,必須看看「人類回饋強化學習」(RLHF)。在這個過程中,數千名人類承包商會對模型的不同回應進行排名。他們可能會看到兩個版本的答案,並點擊他們認為更有禮貌或更準確的那一個。隨著時間推移,模型學會將特定模式與這些人類偏好連結起來。這並非對真理的追求,而是對認可的追求。模型本質上是在受訓以取悅人類評估者。這創造了一種道德外衣,實際上只是特定群體喜好的一種統計近似值。這個過程引入了大量的主觀性。如果大多數標註員來自特定族群,模型自然會採用該群體的俚語、社交暗示與政治偏見。這就是為什麼許多熱門模型的早期版本在非西方語境下表現不佳。它們並沒有壞掉,只是完全按照受訓方式運作。它們反映了那些領錢評分的人的價值觀。這就是抽象概念(如公平與偏見)轉化為具體程式碼的層級。這是一個在公眾看到聊天介面之前,就已進行的手動且勞力密集的過程。這是現代智慧背後隱形的基礎設施。大多數人對此議題的困惑在於認為 AI 擁有內在的道德羅盤。事實並非如此。它擁有的是「獎勵函數」(reward function)。當模型拒絕回答問題時,並非因為它「覺得」該主題不對,而是因為其訓練數據已被大幅加權以避開該特定模式。這種區別至關重要。如果我們相信機器具有道德,我們就會停止質疑那些制定規則的人。我們必須認識到,每一次拒絕與每一次有用的建議,都是基於人類決策的程式化回應。透過識別這一點,我們可以開始針對「誰在制定這些規則」以及「為何制定」提出更好的問題。 潛在空間中的地緣政治這些選擇的影響是全球性的。大多數領先的 AI 模型主要使用來自開放網路的英文數據進行訓練。這創造了一種數位單一文化,其中西方價值觀成為預設值。當世界其他地區的用戶詢問有關家庭動態或法律問題的建議時,他們收到的答案是透過特定文化視角過濾後的結果。這不僅僅是語言翻譯的問題,更是文化翻譯的問題。層級、隱私與社群的細微差別在全球各地差異巨大,但模型往往提供「一體適用」的解決方案。這種對「正確」思想的集中化,是一種新型的軟實力,對全球論述具有巨大影響。我們正看到各國競相開發主權 AI 模型以應對此現象。法國、阿拉伯聯合大公國與印度等國正投資於自身的基礎設施,以確保其特定的文化價值觀得到體現。他們意識到,依賴外國模型意味著輸入外國的世界觀。隨著各國政府意識到對 AI 潛在空間(latent space)的控制與控制實體邊界同樣重要,這種趨勢正在加速。用於訓練這些模型的數據就像一本數位歷史書。如果那本書只包含一種觀點,產生的智慧本質上就是有限的。這就是為什麼推動多樣化數據集不僅僅是多樣性倡議,更是全球規模下準確性與相關性的必要條件。國際合作的賭注很高。如果每個國家都建立自己孤立的 AI,並擁有各自僵化的價值觀,我們可能會發現跨越數位邊界溝通變得更加困難。然而,另一種選擇是一個由單一山谷中的幾家公司定義數十億人道德邊界的世界。沒有哪條路是完美的。挑戰在於如何在維持對基本人權共識的同時,容納在地細微差別。這是一個無法僅靠更好的硬體解決的問題。它需要國際外交,並清醒地審視當今推動科技產業的激勵機制。您可以在我們的 AI 倫理與治理綜合指南中找到更多關於這些挑戰的資訊。 決策迴圈試想一位名叫 Sarah 的招聘經理的一天。她使用 AI 工具篩選數百份工程職位的履歷。該工具經過訓練以尋找「高潛力」候選人。表面上,這似乎很有效率。但在介面之下,該工具正在應用從過往招聘數據中學到的一套價值觀。如果歷史數據顯示公司大多聘用來自特定三所大學的人,AI 就會優先考慮這些學校。它並非以人類意義上的「種族歧視」或「菁英主義」行事,它只是在優化它被告知具有價值的模式。Sarah 可能甚至沒意識到,該工具正在過濾掉來自非傳統背景的優秀候選人,因為他們不符合訓練數據中的「價值」概況。這種情況每天在成千上萬的辦公室中上演。這些價值觀並非抽象的。它們決定了你能否獲得工作,還是被演算法忽略。同樣的邏輯也適用於信用評分、醫療分診,甚至是司法判決。在每個案例中,像「風險」或「績效」這樣的人類價值觀都被轉化為數字。危險在於,我們將這些數字視為客觀真理,而非主觀選擇。我們經常將道德判斷的艱難工作委託給機器,因為它更快且更不令人不適。但機器只是在以我們難以監控的規模,自動化我們現有的偏見。我們每天使用的產品讓這些論點變得真實。當照片編輯 App 自動提亮一個人的膚色使其看起來「更好」時,它就是在表達一種價值觀。當導航 App 避開「高犯罪率」區域時,它就是在對安全與社會階級做出價值判斷。這些不是技術錯誤,而是人類提供的數據與獎勵函數的邏輯結論。我們生活在一個軟體不斷代表我們做出道德選擇的世界。大多數時候,我們甚至沒注意到它正在發生,直到出錯為止。我們需要對那些實際上只是內建假設的「實用」功能保持更批判的態度。產業近期的變化是轉向「可操縱性」(steerability)。公司現在賦予用戶更多對 AI「個性」或「價值觀」的控制權。你可以告訴模型要「更有創意」或「更專業」。雖然這感覺像是賦權,但實際上將責任轉回給了用戶。如果 AI 給出有偏見的答案,公司可以聲稱是用戶沒有正確設定參數。這創造了一個複雜的問責網,沒有人真正對輸出結果負責。我們正從一個價值觀固定的世界,轉向一個價值觀流動且由用戶定義的世界,這帶來了其獨特的風險與回報。 自動化道德的代價我們必須以蘇格拉底式的懷疑精神看待「安全」AI 的概念。如果一個模型被完美對齊,它是與誰的價值觀對齊?我們今天看到的過濾器背後有隱藏成本。通常,這些過濾器是利用開發中國家的低薪勞動力建立的。人們每小時領取幾美元,閱讀網路上最恐怖的內容,以便機器學會避免它們。我們本質上是將價值設定的心理創傷外包給全球南方國家。如果一個 AI 的安全性是建立在被剝削勞工的背上,它真的「合乎倫理」嗎?這是科技產業鮮少願意直接回答的問題。另一個限制是「道德幻覺」。由於這些模型非常擅長模仿,當它們談論倫理時聽起來非常有說服力。它們可以輕鬆引用哲學家與法律先例,但它們並不理解其中的任何內容。它們只是在預測序列中的下一個 token。 BotNews.today 使用 AI 工具研究、撰寫、編輯和翻譯內容。 我們的團隊審查並監督此過程,以確保資訊實用、清晰且可靠。 當我們依賴 AI 進行道德指導時,我們本質上是在諮詢一隻非常精密的鸚鵡。這產生了「道德技能退化」的風險。如果我們停止自己做出困難的選擇,讓 AI 代勞,我們可能會失去自行思考複雜倫理問題的能力。我們正在用道德代理權換取便利。誰來定義政治或宗教等主觀話題的「基礎事實」?當私人企業的價值觀與民主社會的價值觀衝突時會發生什麼?我們該如何審計 RLHF 的「黑盒子」,以查看訓練過程中真正被獎勵的是什麼?如果訓練它的世界本質上是不公平的,機器是否能真正做到「公平」? 約束的架構對於進階用戶來說,AI