——給一般選民的一份制度判斷指南
2026 年大選議題系列 · 第 9 篇
在民主制度中,選舉從來不只是投票當天的技術性操作,而是一套建立在信任之上的公共程序。選民相信資訊大致可信、規則能夠被執行、個人的判斷仍然具有意義,制度才能順利運作。
人工智慧的出現,並未直接摧毀選舉制度,卻正在緩慢而系統性地侵蝕這些前提。這種侵蝕很少以制度崩潰的形式出現,而是表現在信任的流失,以及對公共判斷的長期疲勞。

當「真假難辨」成為常態
在人工智慧出現之前,公共討論至少存在一個基本共識:影像、聲音與公開發言,雖然可能被剪輯或斷章取義,但整體而言仍被視為事實的重要載體。人工智慧第一次讓這個共識失效。
如今,製作一段高度逼真的候選人影像或音訊,已不再需要龐大的技術團隊。這並不意味著選民會輕易受騙,而是代表「真實性」本身正在被不斷消耗。
當選民逐漸預設『任何東西都可能是假的』,問題就不再只是某一則資訊是否真實,而是民主制度是否還能依賴基本的事實共識來運作。
削弱信任,本身就是影響選舉的方式
談到人工智慧與選舉,一個常見的誤解是:只有當技術直接操縱投票結果時,民主才會受到威脅。實際情況遠比這來得隱微。
人工智慧的關鍵影響,不在於說服選民改變立場,而在於不斷製造不確定性,使選民逐漸喪失判斷的信心。當真假難分成為常態,參與感、責任感,以及對選舉結果的尊重,都會隨之削弱。
平台與制度之間的落差
人工智慧並非在真空中運作,它高度依賴社群平台、推薦演算法與流量機制。然而,技術的演進速度,已明顯超前制度更新的節奏。
當政治內容是否應清楚標示、平台是否需承擔擴散責任、演算法放大效應應如何被規範等問題長期懸而未決時,制度信任自然會被持續透支。
這是一場制度耐久性的考驗
因此,這並不是單一選舉、單一候選人的問題,而是民主制度在高度不穩定資訊環境中的耐久性考驗。
如果制度無法提供清楚的規則與可行的糾錯路徑,選舉就可能從公共選擇的機制,逐漸退化為情緒動員的舞台。

在 AI 時代,選民如何保留判斷力
當個人無法解決技術問題時,最現實的回應方式,並不是試圖判斷每一則資訊的真偽,而是提升對政治敘事的篩選能力。
人工智慧帶來的焦慮,不必只是被動承受。它可以轉化為一種制度判斷工具,幫助選民辨識哪些聲音不值得信任。
那些大量渲染威脅,卻刻意回避制度設計與責任討論的說法,往往暴露出公共論述的空洞。
同樣地,是否願意正面回應人工智慧帶來的制度風險,也可以成為判斷政治成熟度的重要訊號。逃避,本身就是一種資訊。
在資訊傳播層面保持節制,不被情緒推著走、不主動放大未經查證的內容,本身也是一種有限但真實的制度參與方式。
信任不是天生的,而是需要被維護
人工智慧確實削弱了選舉的確定性,但並未徹底剝奪選民的判斷空間。民主制度的底線,從來不是永遠正確,而是在錯誤出現時,仍然保有修正的能力。
在真假難辨的時代,堅持對制度能力的最低要求,本身就是一種公共理性。
文|語間
Discover more from 华人语界|Chinese Voices
Subscribe to get the latest posts sent to your email.