——當治理能力開始落後於技術速度
2026 年大選議題系列 · 第 10 篇
在現代國家中,治理能力從來不只是提出政策目標或表達政治立場,而是能否將抽象原則轉化為可執行、可持續的制度安排。無論是金融監理、食品安全,或公共衛生,真正有效的治理,仰賴的始終是同一件事:規則是否能跟上現實變化。
人工智慧的快速擴張,正在對這項能力提出前所未有的挑戰。問題不在於政府是否意識到 AI 的重要性,而在於一個更根本、也更尖銳的問題:當技術演進的速度長期快於制度更新,國家是否仍然具備治理能力本身?

AI 並非「新的監理對象」,而是對既有治理模式的全面壓力測試
乍看之下,人工智慧是一個全新的技術議題;但從制度角度來看,它更像是一場對既有治理模式的全面壓力測試。
傳統監理體系通常建立在幾個相對穩定的前提之上:風險路徑可以辨識、責任主體得以界定、技術變化具有一定可預測性。
然而,AI 恰恰打破了這些前提。模型快速迭代、應用場景高度碎片化、決策邏輯難以解釋,責任在開發者、平台與使用者之間不斷被稀釋。
當監理邏輯仍然建立在「事前定義—事中監督—事後究責」的線性架構上時,人工智慧早已進入制度反應明顯落後的灰色地帶。
治理困境的核心,不在於「要不要管」,而在於「誰懂、誰管、誰負責」
在公共討論中,常見一種簡化的想像:只要政府願意出手,AI 所帶來的治理風險就能被妥善處理。現實情況遠比這來得複雜。
立法機構普遍缺乏持續更新技術知識的制度化機制;行政部門在人才與資源上,難以與大型科技企業競爭;監理流程又高度依賴產業意見,甚至外包技術評估。
結果是:政府在名義上承擔治理責任,卻在實務上仰賴被監理對象來解釋風險本身。
當被監理者同時成為規則的主要詮釋者,治理能力便出現結構性弱化,而不僅僅是執行層面的不足。
當制度只能「事後回應」,治理其實已經陷入被動
一個正在逐漸成形、卻很少被直接點破的現象是:AI 治理愈來愈傾向事後補救的模式。
制度往往在技術已廣泛部署、負面影響開始浮現、輿論壓力逐步累積之後,才真正介入。
這未必意味著政府失職,而是反映出制度設計的時間窗口,正被技術發展不斷壓縮。
當治理只能在問題爆發之後登場,公眾對政府是否仍具備掌控局勢的信任,自然會逐步流失。
真正的分水嶺:國家是否仍具備「制度化技術」的能力
人工智慧治理的真正分水嶺,並不在於監理強度高低,而在於國家是否仍然有能力,將高度複雜的技術轉化為可治理的制度對象。
這需要的不只是法規文本,而是一整套能力組合,包括:持續累積的技術理解能力、獨立於產業的風險評估機制、可執行的問責路徑,以及跨部會的協調能力。
若這些能力無法形成制度閉環,治理最終便會退化為政策表態、試點計畫與臨時性回應的集合。
AI 治理的成敗,取決於國家能力的底盤
人工智慧不會等待制度準備完成,它只會依循自身的技術邏輯持續擴張。
真正的風險,不在於政府是否『想管』,而在於——當技術不斷加速,國家是否仍具備將規則落實到現實世界的能力。
如果說 AI 正在重塑經濟與社會,那麼政府是否還能『管得動』,將決定這場重塑是有序推進,還是失序擴散。
文|語間
Discover more from 华人语界|Chinese Voices
Subscribe to get the latest posts sent to your email.