各國政府如何試圖駕馭 AI?
機器的全新規則
人工智慧(AI)的「西部荒野」時代即將結束。各國政府不再只是袖手旁觀,而是開始制定規則,決定程式碼該如何編寫以及能在何處部署。這不僅僅是關於倫理或模糊的原則,而是關乎硬性法律與鉅額罰款。歐盟(European Union)透過其《AI 法案》(AI Act)引領潮流,美國隨後也發布了全面的行政命令。這些行動改變了全球每一家科技公司的計算方式。如果你開發的模型超過了特定的算力門檻,你就成了監管目標,必須在產品發布前證明其安全性。這種轉變標誌著從自願性安全承諾邁向強制性監管。對一般使用者來說,這意味著你明天使用的工具可能與今天大不相同;某些功能在你的國家可能會被封鎖,而其他工具則可能在資料使用上變得更加透明。目標是在進步與保護之間取得平衡,但這條路充滿了阻礙。
從倫理轉向執法
要理解這些新規則,必須先看風險類別。大多數政府正在擺脫「一刀切」的方法,轉而根據系統可能造成的潛在危害進行分級。這是一項直接的營運變革。企業不能再只是隨意發布產品並祈禱一切順利,他們必須在產品接觸使用者之前就對技術進行分類。這種分類決定了政府的審查力度,也決定了若出錯時公司面臨的法律責任。焦點已從「AI 是什麼」轉移到「AI 做什麼」。如果一個系統涉及對人的決策,它受到的審查將比僅僅生成貓咪圖片的系統嚴格得多。
最嚴格的規則適用於被認定為「不可接受風險」的系統,這些系統不僅是不被鼓勵,而是直接被禁止。這為開發者劃定了明確的界線,讓他們知道哪些紅線不能跨越。對於其他系統,規則要求達到新的文件記錄水準。公司必須保留模型訓練過程的詳細記錄,並能解釋模型如何得出結論。這是一項重大的技術挑戰,因為許多現代模型本質上是「黑盒子」。強迫它們具備可解釋性,需要從根本上改變設計方式。規則還要求訓練資料必須乾淨且無偏見,這意味著資料收集過程本身現在也受到法律審計。目前的監管方式分為以下幾類:
- 禁止使用社會評分或欺騙性技術來操縱行為的系統。
- 用於關鍵基礎設施、招聘和執法,且需要嚴格審計的高風險系統。
- 像聊天機器人這樣,必須揭露其非人類身份的有限風險系統。
- 像 AI 遊戲這樣,面臨較少限制的極低風險系統。
這種結構旨在保持靈活性。隨著技術變遷,高風險應用的清單可能會增加,這使得法律在軟體演進時仍能保持相關性。然而,這也為企業創造了一種永久的不確定性狀態,他們必須不斷檢查自己的新功能是否已進入更嚴格的監管類別。這就是在一個對機器力量保持警惕的世界中開發軟體的新現實。
破碎的全球架構
這些規則的影響並不侷限於單一國家的邊界。我們正見證「布魯塞爾效應」(Brussels Effect)的興起。當歐盟為科技監管設定高標準時,全球公司往往會隨處採用這些標準以簡化營運。開發一個合規產品比為不同市場開發十個不同版本更便宜,這讓歐洲對矽谷如何構建 AI 產生了巨大影響。你可以閱讀更多關於 歐盟 AI 法案 的內容,了解這些標準是如何構建的。在美國,方法不同但同樣重要。政府正在利用《國防生產法》(Defense Production Act)強制科技巨頭分享其安全測試結果,這顯示美國將大規模 AI 視為國家安全問題。
同時,中國採取了更直接的路徑。他們的法規側重於生成式 AI 產生的內容,要求輸出內容必須符合社會價值觀,且不得削弱國家權力。這創造了一個碎片化的世界,同一個模型可能會根據你的登入地點而有不同的表現。北京的模型與巴黎或紐約的模型將會有不同的護欄。這種碎片化對開發者來說是一場惡夢,他們現在必須在相互衝突的規則網中工作。有些國家想要更多開放,而有些則想要更多對敘事的控制。對於全球受眾而言,這意味著 AI 體驗正在在地化。單一、無國界的網際網路夢想正在消逝,取而代之的是一個受監管的環境,你的位置決定了機器被允許告訴你什麼。這是 2024 年的新現實,這一轉變將定義未來十年的技術成長。
監管眼光下的日常生活
想像一下專案經理 Sarah 的典型早晨。她開始工作時打開一個 AI 工具來總結一長串電子郵件。根據新法規,她的軟體必須通知她該摘要是由演算法生成的。它還必須確保她的公司資料不會在未經同意的情況下被用於訓練公開模型,這是近期法律中內建隱私保護的直接結果。隨後,Sarah 申請了一家科技公司的新職位。該公司使用 AI 篩選工具,由於這屬於高風險應用,公司必須對該工具進行偏見審計。Sarah 有法律權利要求解釋 AI 為何給她這樣的排名。過去,她只會收到一封通用的拒絕信,但現在,她有了追求透明度的途徑。這是一個具體的例子,說明治理如何改變企業與個人之間的權力動態。
下午,Sarah 走過購物中心。在某些城市,臉部辨識系統會追蹤她的動向以投放精準廣告。根據歐盟的嚴格規定,這種即時監控受到限制。購物中心必須有特定的法律理由才能使用,且 Sarah 必須被告知。她使用的產品也在改變。像 OpenAI 和 Google 這樣的公司已經在調整功能以符合當地法律。你可能會注意到某些圖像生成工具在你的地區無法使用,或者它們有嚴格的過濾器,防止生成公眾人物的逼真面孔。這不是技術限制,而是法律限制。當你考慮到 Deepfake 可能擾亂選舉,或偏見演算法可能剝奪人們住房權利的可能性時,這些規則的論點就顯得非常真實。透過設置護欄,政府正試圖在這些危害發生前進行預防。這就是 美國 AI 安全方針 的實際運作。
BotNews.today 使用 AI 工具研究、撰寫、編輯和翻譯內容。 我們的團隊審查並監督此過程,以確保資訊實用、清晰且可靠。
合規的隱形成本
我們必須提出困難的問題:在一個受監管的世界裡,誰才是真正的贏家?沉重的監管負擔真的保護了公眾,還是僅僅保護了既得利益者?大型科技公司有資源聘請數百名律師和工程師來處理合規問題,但車庫裡的小型 startup 卻沒有。我們冒著創造一個「只有巨頭才能負擔創新」的世界的風險,這可能導致競爭減少,使用者成本增加。此外,還有隱私與安全的問題。當政府要求存取 AI 模型的內部運作時,誰在保護這些資料?如果政府可以審計模型以確保其安全,他們也可以利用同樣的存取權來監控模型從使用者那裡學到了什麼。這是在公開論壇中很少討論的權衡。
我們還必須考慮創新的隱形成本。如果每一項新功能都必須經過漫長的審批流程,我們會不會錯過在醫學上拯救生命或解決複雜氣候問題的突破?監管的摩擦成本是真實存在的。我們需要知道我們獲得的安全性是否值得我們失去的進步。此外還有執法問題。你如何監管一個託管在去中心化網路或無視國際規範的國家的模型?規則可能只適用於選擇遵守它們的公司,讓最危險的參與者在沒有監督的情況下自由運作。這創造了一種虛假的安全感。我們正在為守法公民建立一道圍牆,而大門卻對其他人敞開。這些是監管機構經常迴避的問題。他們專注於可見的風險,卻忽略了系統性的風險。隨著我們向前邁進,我們必須確保我們對安全的渴望不會讓我們對開放和競爭市場的價值視而不見。
您有任何關於 AI 的故事、工具、趨勢或問題,認為我們應該報導嗎? 將您的文章想法寄給我們 — 我們很樂意聽取您的意見。透明度的技術代價
對於進階使用者和開發者來說,新法規轉化為具體的技術限制。最重要的指標之一是算力門檻。美國行政命令設定了 10 的 26 次方浮點運算(flops)的門檻。任何使用超過此算力訓練的模型都必須向政府報告。這迫使開發者詳細記錄他們的硬體使用情況和訓練過程。API 限制也成為了監管工具。為了防止大規模生成虛假資訊,一些地區正在考慮限制單一使用者對生成式模型發出的請求數量。這影響了開發者構建依賴這些模型的應用程式的方式,他們現在必須在程式碼和商業模式中考慮這些限制。本地儲存是另一個主要因素。法律通常要求關於公民的資料必須留在特定的地理邊界內,這意味著公司不能僅僅使用中央 cloud 來處理來自各地的資料,他們必須建立並維護本地資料中心。技術要求包括:
- 在 API 層級強制執行浮水印,以識別 AI 生成的內容。
- 強制進行本地處理和儲存的資料駐留要求。
- 針對任何超過 10 的 26 次方 flops 門檻的模型訓練進行算力記錄。
- 允許人類審計模型權重和決策路徑的可解釋性層。
整合工作流程也在改變。開發者現在必須在管道的每個階段建立安全檢查。如果你正在構建一個使用第三方 API 的工具,你現在要對該 API 如何處理資料負責。你必須確保你的整合不會繞過供應商設置的安全過濾器。法律的極客部分是真正的戰場,涉及延遲、資料駐留和模型權重的數學。這些細節決定了一個產品是否可行,或者它是否會被合規要求的重量所淹沒。你可以在關於科技政策的 最新新聞報導 中找到有關這些技術轉變的更多細節。對於那些想要領先於這些變化的人來說,追蹤 AI 監管的最新發展 至關重要。這些規則的複雜性意味著開發者的角色正變得既是法律工作,也是程式碼工作。
未完成的程式碼
駕馭 AI 的嘗試是一項正在進行的工作。我們正從一個完全自由的時期轉向一個受管理的成長時期。今天寫下的規則將塑造未來十年的技術。然而,軟體的速度總是超過立法的速度。當法律通過時,技術往往已經轉向了新的東西。這給我們留下了一個將使這個主題不斷演變的現實問題:民主進程是否永遠足夠快,足以監管一個會自我重寫的智慧?目前,重點在於透明度和問責制。我們正試圖確保人類仍然掌控著他們製造的機器。這些規則是會讓 AI 更安全,還是只是變得更複雜,還有待觀察。唯一確定的是,不受監管的演算法時代已經結束。這就是 2024 年及以後的現實。
編者按: 我們創建這個網站,是為了那些不是電腦高手,但仍希望了解人工智慧、更自信地使用它,並追隨已經到來的未來的人們,提供一個多語言的人工智慧新聞和指南中心。
發現錯誤或需要修正的地方?請告訴我們。