——从隐私权到监控社会的制度转向
2026 年大选议题系列 · 第 11 篇
在民主社会中,“自由”长期被理解为一种不受干预的状态。只要个人行为没有违法,个体便被默认可以自行选择生活方式、行动路径与价值取向。
这种理解方式,塑造了我们对自由的直觉:自由是一条清晰的界线,界线之内属于个人,界线之外才属于国家。
人工智能的扩张,并未直接推翻这套制度,却正在让这条界线变得不再清晰,甚至不再可见。

当自由不再只是“你做了什么”,而是“系统如何理解你”
在传统制度中,自由与行为高度相关。法律关心的是:你是否做了某件事,是否违反了某项规则。
人工智能改变的,正是这一判断顺序。在越来越多的制度与市场场景中,系统关注的已不再是单一行为,而是你过往的行为模式、选择倾向,以及你可能会做什么。
例如,一个人是否能顺利通过审核、获得某种服务,或被归类为“低风险对象”,往往取决于数据所描绘出的整体轮廓,而不是某一次具体行为。
在这样的环境中,自由不再只存在于某个行动瞬间,而是被延展为一条持续被记录、分析、更新的数据轨迹。
监控的形式正在改变:从“看着你”,到“提前判断你”
谈到监控,许多人仍会联想到直接的观察与干预:摄像头、执法人员、行政命令。
但人工智能时代的监控,更多发生在你尚未察觉的层面。系统不需要持续“盯着”你,只需要通过大量相似案例的比对,就能推断你属于哪一类人,具有什么样的潜在风险特征。
这种监控方式的关键,并不在于是否立刻限制你的行为,而在于它在你行动之前,就已经为你设定了制度预期。
你仍然可以行动,但你行动的后果,往往已被系统提前假设。
为什么隐私权往往是在“合法与便利”中退场
在多数法律讨论中,隐私权仍被理解为一条清楚的界线:是否告知、是否同意、是否违法收集。
然而,人工智能对隐私的影响,并不总是以“侵犯”的形式出现。更多时候,它发生在制度与市场共同塑造的日常选择之中。
为了效率、便利或安全,个人被鼓励提供更多数据;而数据的使用,则被包装为风险管理、服务优化或系统改进。
在这一过程中,隐私并非被强行剥夺,而是逐渐被重新定义为一种可以交换、可以让渡的资源。自由的边界,也因此悄然向后退缩。
制度正在转向:从“权利保护”,到“行为管理”
人工智能对自由的影响,最深刻之处,并不在于某一项具体权利是否受损,而在于整个治理逻辑的转向。
传统制度通常在行为发生之后介入,判断其是否合法、是否需要承担责任;而以算法为核心的治理方式,则更倾向于在行为发生之前,通过风险评分与预测模型,提前进行分类与管理。
在这样的制度中,自由不再是默认状态,而是必须在模型运算中被“允许”的结果。
当自由的界线不再由法律划定,而是由算法形成
这是人工智能时代最值得警惕的制度变化之一。
法律的界线,理论上是可理解、可辩论、可挑战的;而算法的界线,往往不可见、不可质询、也难以追溯。
问题不在于是否使用人工智能,而在于:谁决定模型如何运作,谁能够理解其后果,谁有权对结果提出质疑并要求修正。
当自由的边界逐渐从法律文本转移到技术系统之中,民主制度所熟悉的制衡机制,将承受前所未有的压力。
自由是否仍然是制度的起点?
人工智能并未宣告自由的终结,但它正在改变自由存在的条件。
当行为被预测、选择被引导、风险被提前标记,自由是否仍然被视为制度设计的起点,而不是一个需要被管理与优化的变量?
这个问题,已不只是技术或隐私的问题,而是民主社会在人工智能时代,无法回避的核心命题。
文|语间
Discover more from 华人语界|Chinese Voices
Subscribe to get the latest posts sent to your email.