AI时代最大的自由和权利,就是不被算法提前预测和算完
本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust
AI不只是一种预测工具,它正在判决大多数人的命运。
AI的问题,最终不仅仅是技术问题,而是一个关于自由的问题。在AI时代,一个最大的自由和权利,就是不被算法提前算完的自由和权利。
有一类变化,往往是在它已经深深进入生活之后,人们才意识到它不只是一种新的技术”,而是一种新的社会力量。
人工智能就是这样。
很多人谈论AI时,依然停留在一种相对肤浅的想象里:它是一个更聪明的搜索引擎,一个更高效的写作助手,一个会聊天、会整理资料、会生成图片和代码的工具。
它当然也是这些东西。但这恰恰构成了普通人对AI最大的误解:我们总以为它只是工具,却没有意识到,一旦AI进入招聘、贷款、保险、教育、司法、治安和平台推荐等制度性场景,它扮演的就不再只是工具角色,而是一种分配机会、定义风险、预审未来的权力。
工具帮助你完成一件事。权力则决定你有没有资格进入某种生活。
这正是现代人最深的一个认知陷阱。
二十世纪八十年代,芝加哥大学的一批金融经济学家发现了一件让他们自己都不敢相信的事。他们研究的是一个叫Black-Scholes的期权定价模型,这是一条1973年由两位经济学家推导出来的数学公式,据说能算出任何一份期权的”合理价格”。这条公式复杂得不像话,普通交易员根本读不懂。
但它改变了市场。
在这条公式出现之前,期权市场的定价是混乱的,不同交易员给出的价格千差万别。公式普及之后,所有人都开始用它。结果并不是”市场被准确描述了”,而是市场开始按这条公式的样子生长。市场原本不是那样的,但越来越多的人按这条公式行动,市场就慢慢变成了公式所描述的样子。
有一位叫Donald MacKenzie的社会学家花了很多年研究这件事。他是爱丁堡大学的教授,主要研究金融技术和社会的关系。他把这个现象写成了一本书,书名起得极好,叫做《An Engine,Not a Camera》,翻译过来就是“是引擎,而不是照相机”。
这本书的核心洞察很简单。我们以为金融模型像一台照相机,忠实地记录市场的样子。但事实是,它更像一台引擎,市场按它的驱动在运行。
模型并不是在描述现实,模型在制造现实。
这句话搬到今天的AI身上,每一个字都成立。
你想想看。一个招聘算法预测某个候选人”不适合这个岗位”,公司就不给他机会,于是这个人没有这段工作经历,于是他下次投简历时履历更弱了,于是他下一次更难被雇用,于是算法的预测”得到了验证”。
一个信贷模型预测某个人”违约风险偏高”,银行就不给他贷款,于是他失去了一次可能扭转财务状况的机会,于是他真的越来越穷,于是下一次任何银行看到他,都会得出相同的结论。
一个平台推荐算法预测某个创作者的内容”用户兴趣度低”,就把他的流量压下去,于是这个创作者没人看,于是他的数据更难看了,于是算法更不推他,于是他真的失败了。
这就是今天AI最值得警惕的地方:它不只是预测未来,它正在策动、决定、参与分配未来。
而比这更可怕的是,很多时候,人们甚至意识不到自己正在被“判决”。因为算法不像法官那样坐在高台上,不像警察那样穿制服,也不像老板那样有一张明确的脸。它往往只是以一种看似客观、理性、技术中立的方式出现:一个分数,一个标签,一项概率,一次排序,一条“系统建议”。
但正是这种没有面孔的判断,更容易让人放下警惕。人们总觉得,既然它是算出来的,那大概就是事实;既然它是数据驱动的,那大概就比人的偏见更公正。
问题恰恰在这里。我们低估AI,不是因为我们不知道它聪明,而是因为我们仍然在用“工具”的眼光看它,而它早已在现实中长成了一种“命运权力”。
被算法控制的人:聪明是知道如何赢得游戏,智慧是知道该玩什么游戏
一、从神庙到算法:预测从来都和权力绑在一起
古代世界最著名的神谕,或许是古希腊的德尔斐神庙。
那个地方很奇怪。人们长途跋涉去那里,不是为了获得一个精确答案,而是为了获得一种合法性。城邦要不要开战,国王要不要改革,个人要不要远行,人们去问神谕,往往不是因为神谕真的比谁都懂,而是因为神谕可以把本来充满争议的事情,包装成一种超越争议的命运安排。
一旦“神说如此”,原本需要承担的责任、解释和辩论,都会在某种程度上被消解。决定不再只是人的决定,而成了天意的传达。
这正是神谕最重要的政治功能:它不只提供信息,它还提供权威。
今天我们当然不再去神庙问命运。但我们对“不会错的声音”的迷恋,并没有消失,只是神谕换了形式。
它不再以神职人员的口吻发声,而是以模型、评分、概率和数据分析的面貌出现。它不再说“你命中如此”,而是说“根据历史数据,你有87%的概率违约”、“根据行为画像,你不适合这份岗位”、“根据综合评估,你属于高风险人群”。
从外表看,这与古代神话毫不相干。一个来自祭司的预言,一个来自服务器的预测,似乎分属两个完全不同的文明阶段。可它们在社会中的作用,却惊人相似:都在把本来可以争论、可以申诉、可以重新判断的事情,包装成一种看似客观、不可置疑的结论。
古代神谕的威力,来自人们相信它连通神意;现代算法的威力,来自人们相信它连通事实。前者借神圣性获得权威,后者借客观性获得权威。但对于普通人的命运来说,两者都可能产生同样的效果:你的未来不再由一个具体的人来公开判断,而是交给了一套你无法看见、难以质疑、也很少能真正申诉的机制。
这就是为什么,预测从来不只是一个知识问题。它也是一个权力问题。
因为谁有资格预测别人,谁往往就有资格安排别人。对天气的预测不会损害云层的尊严;但对人的预测,会改变一个人能不能被录用、能不能借到钱、能不能搬进一个更好的社区、能不能从某种处境中翻身。预测一旦进入制度,就不再只是看未来的方式,它还会成为塑造未来的方式。
在这个意义上,AI并不只是提高效率的工具,它正在接管神谕曾经拥有的一部分社会功能:为权力提供一种看起来无可争议的外衣。
当代财富的六层阶梯,为什么64%的人会困到第四层?
人类文明集体倒车,新周期已冉冉升起
二、AI不是“预测未来”,它也在“制造未来”
许多人谈到AI预测时,默认它像一面镜子。现实是什么样,它就把现实照出来;人的风险、能力和潜力是什么样,它就更准确地识别出来。按照这种想象,算法最多只是比人更聪明、更快、更少情绪干扰的判断者。
但这恰恰是最危险的误会之一。
在很多制度场景里,AI不是照相机,而是引擎。它不是把未来拍出来,而是在把某种未来发动出来。
这个道理并不复杂。一个系统如果预测某人“违约风险高”,银行就更可能拒绝贷款;拒绝贷款之后,这个人失去创业、渡过资金难关或者改善生活的机会,未来的财务状况自然更差。于是系统看起来像是“预测对了”。可它到底是在预测,还是在通过拒绝帮助,把那个糟糕的未来推向现实?
一个招聘模型如果根据历史数据判断某类背景的人“稳定性不足”或“绩效预期偏低”,公司就更不愿意给他们面试机会。没有人给机会,他们当然无法在现实中证明自己。
多年之后,模型回头看数据,发现这类人果然“进入公司比例更低、成材率也不高”,于是它显得越来越准确。可这种准确,究竟是看见了现实,还是制造了现实?
一个社区如果被系统预测为“高风险区域”,更多警力和监控就会被投放进去,于是更多轻微违法行为也会被捕捉、记录和统计。久而久之,数据继续证明这个地方“风险更高”,政策也因此进一步向那边倾斜。
可问题是,这个地方更危险,是因为它本来如此,还是因为它被预先当作危险来对待,于是产生了更多“危险证据”?
社会学里有一个非常著名的概念,叫“自证预言”。
意思是:一个起初并不完全真实的判断,会因为人们相信了它并据此行动,最后使这个判断看上去成了真。托马斯定理说:“如果人们将情境定义为真实的,那么它们在结果上就会是真实的。”这句话听起来像绕口令,其实说的是最朴素的社会机制:人不是在纯粹客观的现实里行动,而是在自己所相信的现实里行动;而正是这些行动,最终塑造了那个现实。
AI预测最深的危险,就在这里。它并非简单地向我们报告未来,而是在越来越多的场景中,诱导制度和人们按照它的判断来行动。于是,预测开始变成一种施加力量的方式。
它说你“不值得信任”,世界就先对你关闭一部分信任;它说你“成功概率偏低”,机会就先从你面前撤走;它说你“更可能有风险”,规则就先向你收紧。最后,预测看似被现实验证,实际上是现实先服从了预测。
所以,AI问题的核心,不只是“准不准”,而是它的预测会不会反过来成为一种判决。
预测看起来像是在描述世界,实际上却常常具有“规范性”。它在暗中告诉我们该怎么做。一个大语言模型告诉你,未来大家都会用某种技术办公,它表面上是在描述趋势,实际上也在鼓励你加入这个趋势;一个评分模型告诉机构,某些人更值得投资,另一些人更应被排除,它表面上是在提供信息,实际上已经在发出行动指令。
用语言哲学的话说,这不只是“描述”,而是“施事”。
说出一句话,本身就在做一件事。法官说“判你有罪”,不是在描述一个既成事实,而是在实施判决。神父说“我宣布你们结为夫妻”,不是在汇报信息,而是在创造一种新的社会关系。AI预测在很多时候正是这样:它看似只是把概率说出来,实际上是在启动一种制度性的后果。
于是,预测就不再只是预测,它变成了某种沉默的命令和权力。
信息即武器:AI没有杀死真相,它只是让真相变得无关紧要了
65岁退休逐渐沦为幻觉,35岁和85岁正成为新常态
三、
最可怕的不是误判,而是世界永远不知道那是误判
传统权力的压迫,往往还带着明确的形状。你知道是谁拒绝了你,是哪个部门做出的决定,是哪一条规定限制了你。它可能依然不公平,但至少有责任主体,也有理论上的申诉对象。
算法权力最可怕的地方在于,它常常没有明确面孔,却能产生明确后果。
你被一套招聘系统刷掉,可能只会看到一封自动邮件。你不知道是哪些特征让系统觉得你“不合适”,也不知道它是不是把你的学校、住址、工作间断、年龄、语言风格、社交痕迹、甚至某些间接变量,当成了隐性的风险信号。你能做的,往往只是接受结果。一个看似平静的系统通知背后,其实是一场你从未参与、也无法辩论的审判。
这就产生了一种非常“卡夫卡式”的处境。
你知道自己被决定了,却不知道依据是什么;你感到命运发生了变化,却看不见谁在改变它。决定不是基于清晰规则,而是基于一个黑箱里的模式匹配。这个黑箱并不需要向你解释,因为它常常被视为“专业”“复杂”“商业机密”甚至“技术上难以解释”。于是,一个影响你人生的重要判断,既不透明,也不对你负责。
但黑箱还不是最可怕的。最可怕的是,它还会抹掉错误证据。
想象一个人因为算法判定“岗位匹配度低”而失去了面试机会。我们永远不会知道,他如果被录用,会不会其实是一名极好的员工。那条现实分支已经被切断了,它不再存在于数据里。
反过来,算法只会看到:这个没被录用的人后来并没有在那家公司表现出色,当然没有,因为他连机会都没得到。于是系统的“准确性”就显得毫发无损。
这就是自我实现的预言像“完美犯罪”的原因:它不会留下明显的错误信号。
你无法证明某次拒绝是错误的,因为那条本可展开的人生路径已经被制度掐灭了。没有发生的事情,不会形成数据;而恰恰是这些没有发生、却本该可能发生的事情,构成了普通人最珍贵的未来。
一个年轻人没有拿到贷款,我们不知道他本来能不能创业成功;一个孩子因为算法分流被导向较差教育资源,我们不知道他本来能不能在另一条道路上绽放;一个求职者因为评分系统被过滤,我们也不知道他本来会不会在复杂的人际合作和创造性工作中表现出色。
算法淘汰的,不只是某次选择;它淘汰的往往是那些尚未发生、因而永远不再有证据的可能性。
这就是算法型不义的深处:它不只伤害人,它还让伤害难以被看见。
我们今天已经很熟悉“偏见”这个词。人们会说,算法也有偏见,因为训练数据有偏见,设计者有偏见,社会历史本身就充满偏见。这当然都对。但比“偏见”更深的一层问题是:算法会把偏见固化成命运,然后再用结果证明偏见是对的。
在这种机制里,穷人更容易被判定为风险,风险又让他们更难获得资源;边缘群体更容易被系统识别为“不稳定”,不稳定的判断又使他们更难进入稳定轨道;那些本就缺乏社会资本的人,最容易在黑箱制度中成为“看起来合理的淘汰者”。
技术于是获得了一种特别体面的残酷。它不必大声喊出歧视,不必在公开场合羞辱谁,不必说“我不喜欢你们这种人”。它只要平静地显示:根据模型计算,你不在优先考虑范围内。
偏见被洗成概率,歧视被翻译为风险控制,命运的关门声则被包装成系统优化的一部分。
从俄狄浦斯到罗马禁令:预言会扭曲现实
古希腊悲剧《俄狄浦斯王》讲了一个古老而震撼的故事:神谕预言俄狄浦斯将会杀父娶母。为了逃避这个命运,所有人都围绕预言行动,结果恰恰一步步把他推向了预言本身。
这个故事之所以历经几千年仍然令人不安,不只是因为它充满悲剧色彩,更因为它准确抓住了“预言的悖论”:有些预言并不只是被动地描述未来,它本身就会介入人们的行动,从而改变未来。
哲学家波普尔曾借用这个神话来谈社会科学中的“俄狄浦斯效应”:关于未来的预言,可能正是促成或阻碍该事件发生的原因。换句话说,对人的未来进行预测,与对日食进行预测是两回事。
天体不会听见你的预言,也不会因此改变轨道;但人会。制度也会。市场会。舆论会。于是,预言进入社会之后,就不再只是观察,而会成为力量。
历史上有一个很有意思的现象:古罗马曾在不同时期禁止预言皇帝之死。理由并不神秘,关于皇帝将死的预言,往往会导致皇帝真的被杀。因为一旦某种说法开始流传,人们就会围绕它重新评估风险、忠诚和机会,潜在的野心家、观望者和阴谋者都会受到影响。于是,预言不再只是预言,而成为了行动的催化剂。
这一点放在今天,依然成立。
一个AI如果预测某人“未来财务状况恶化”,银行可能拒绝放贷,这反过来又会让他的财务状况更容易恶化;一个模型若预测某人“未来患病风险偏高”,保险就可能涨价,财务压力带来的焦虑和生活质量下降,反而会增加健康恶化的可能;一个系统若将某人归类为“潜在不稳定”,机构就可能更少给予资源与信任,这种持续性的收缩又会让他的生活更不稳定。
所以问题不是“我们能不能预测”,而是:
有些东西即便可以预测,是否也不该被用来裁决?
这是AI时代最重要、却讨论得远远不够的问题之一。
现代社会对“能不能算出来”太感兴趣了,却很少追问“算出来之后能不能拿来决定人的命运”。在技术逻辑里,似乎只要模型准确率足够高,就天然拥有使用正当性。但在人类社会里,准确并不是唯一价值。透明、可争辩、可申诉、可逆转、可重新开始,同样是重要的价值。
一个自由社会的制度设计,不能只围绕“最优预测”展开。它还必须考虑:这个预测会不会成为自我实现的预言?会不会制造一个被预测者无法逃脱的闭环?会不会让某些人再也没有机会证明自己不是模型所说的那类人?
如果答案是会,那么问题就不再是技术能力,而是政治伦理。
AI逼出了教育的真相,美国大学开始复兴一种古老传统
未来的暗线:AI正在成为有史以来最强大的权力分配引擎
五、
当人被像天气一样预测,人的主体性也开始缩水
预测天气、预测库存、预测交通流量、预测机器何时故障,这些都没有根本问题。世界上有许多对象,本来就适合用统计模型来理解和管理。问题出在,当社会开始用同样的方式来处理“人”。
当我们像预测天气那样预测人时,我们在悄悄接受一种前提:人只是过去模式的延长线,是一组可被拆解为特征、变量和概率的对象。你的昨天足以决定你的明天;你的行为轨迹、消费习惯、社交网络、学习记录、健康档案和情绪波动,最终都可以被转译成一个更高或更低的风险值。
这种处理方式之所以危险,不只是因为它可能不公平,更因为它在改变我们对于“人是什么”的理解。
人当然会受过去影响,但人并不只是过去的总和。人之所以是人,恰恰在于他有能力偏离自己的过去,有能力在某个时刻突然改变,有能力出人意料,有能力悔改、成长、反抗、重新开始。
一个年轻人出身普通,不意味着他就会永远困在原地;一个曾经失败的人,并不注定不会在下一次选择中完成逆转;一个看起来“低匹配度”的候选人,可能恰恰会在真实复杂的组织中带来意外价值。
如果一个社会越来越相信模型对人的描述,超过相信人改变自己的能力,那么这个社会失去的,就不只是公平,还有一种更深层的东西:人的开放性。
现代治理越来越偏爱把人拆解为“画像”。
这当然方便。画像让人更容易被分类、被管理、被定价、被分层。平台可以据此更精准地推送内容,企业可以据此更高效地筛选候选人,金融机构可以据此更细致地控制风险,政府机构也可以据此更精密地分配资源和警惕危险。
问题在于,画像并不会停留在“认识你”这一步,它迟早会滑向“定义你”。当一个人被定义为一组稳定的特征,他作为主体的那部分不确定性,那部分“我还可以成为别的人”的权利,就开始被削弱。
这就是为什么,AI问题最终不仅仅是技术问题,而是一个关于自由的问题。
自由不只是“想做什么就做什么”。自由还意味着,你不应被过去的数据提前算完;你不应因为统计学上与某类人相似,就被剥夺证明自己不同的机会;你不应在真正行动之前,就被系统预审了命运。
人的尊严,部分就在这里。不是因为每个人都无比高贵,而是因为每个人都不应该被简化为一个完全可计算、可提前判定的对象。一个社会若只追求预测准确率,迟早会把人变成管理对象;而一个社会若仍然尊重人的主体性,就必须为不可预测性保留空间。
不可预测,并不只是效率的敌人。它也是自由的条件。
硅谷的科技直男为什么突然大谈“品味”?不是救赎是陷阱
为什么聪明人正在纷纷逃离社交媒体?
预测市场的火热,暴露了一个时代的精神结构
这几年,预测市场重新成为一个热门话题。无论是与加密货币结合的去中心化预测平台,还是围绕选举、政策、经济数据、科技事件展开的各种投机和投资机制,都体现出一种越来越鲜明的倾向:
人们想把未来变成一个可交易、可定价、可押注的对象。
从表面看,这似乎只是金融创新或者互联网游戏化的一部分。它给人一种很现代的感觉:众包信息、分散判断、市场定价,把大家对未来的信念压缩成一个概率。谁判断得准,谁就赚钱;谁看错了,谁就亏损。
这种机制当然有其信息聚合意义,也并非一无是处。但它之所以在今天格外有吸引力,不只是因为它赚钱、刺激、聪明,而是因为它与AI所代表的时代精神高度同构。
这种时代精神可以概括为一句话:
未来不是等待发生的东西,而是可以被提前计算、提前下注、提前配置的东西。
AI试图通过数据预测未来。预测市场试图通过价格发现未来。两者的方法不同,但背后的冲动很接近:都在努力把不确定性转化为某种可操作的概率结构。人们不再满足于让未来到来,他们想提前接近它、占有它、管理它,最好还能从中套利。
这看起来非常现代,也非常理性。但其中潜藏着一种危险:当“预测未来”成为越来越强的社会冲动,社会就会越来越倾向于以概率而不是以判断来组织行动,以风险控制而不是以价值讨论来处理问题。
人们更关心“什么最可能发生”,而不是“什么是应该发生的”;更关心“如何根据模型配置资源”,而不是“怎样保留人的开放性和意外性”。
于是,未来逐渐被资本、数据和算力提前占领。谁拥有更多数据、模型、资金和计算资源,谁就更有能力在别人真正进入未来之前,先为未来定价。普通人则往往只能在被定价之后,接受一个已经对自己不利的现实。
从这个角度看,预测市场和AI的结合并不只是技术融合,更像是一种精神联盟。它们共同推动一种观念:世界的核心不再是行动,而是预判;不再是实践,而是定价;不再是给人机会,而是先估算一个人值不值得给机会。
古代人害怕未来,是因为未来不可知。现代人迷恋未来,也是因为未来不可知。只是今天,我们不再向神明献祭,而是向数据献祭;我们不再等待神谕降临,而是试图用模型、市场和算力,把未来提前兑换成一种可管理的风险。
问题是,当风险管理越过边界,滑向命运管理,普通人还能剩下多少“重新开始”的空间?
人类这次造的不是工具,是神(深度)
诸神的黄昏:爱泼斯坦、西方道德内爆与全球秩序的裂变(深度重磅)
七、
真正值得警惕的,不是AI更聪明,而是人们越来越屈从它的判决
关于AI,人们最常见的两种讨论,一种是乐观主义的:它提高效率、降低成本、创造便利、释放生产力;另一种是灾难主义的:它可能失控、取代人类、制造大规模失业,甚至威胁文明本身。
这两种讨论都重要。但对于眼下的大多数普通人来说,最迫近、也最容易被忽视的问题,也许不是AI会不会毁灭人类,而是它已经开始以一种安静的方式,参与决定普通人的前途。
它不会像科幻电影那样冲出屏幕统治世界。它会以“系统建议”、“信用评估”、“综合画像”、“风险识别”、“精细化运营”、“个性化推荐”的形式,一点点进入生活。它不会高喊命令,而会提供越来越难以拒绝的“最优判断”。
久而久之,机构学会依赖它,人们也学会服从它。最后,我们会发现,许多决定命运的关键环节,都已经提前外包给了一套不会承担道德责任的技术体系。
这时候,最危险的事情并不是模型本身,而是社会对模型的信仰。不是AI非要成为神,而是我们越来越愿意把它当神。
我们喜欢“客观”的东西,因为它能替我们减轻判断的负担;我们迷恋“数据驱动”,因为它让复杂的责任看起来变得简单;我们偏爱概率,是因为概率似乎比价值争论更干净、更高效。
可一旦这种倾向走得太远,我们就会忘记一件事:在人类社会里,很多最重要的决定从来不只是事实判断,它们同时也是价值判断。
要不要给一个人第二次机会?要不要容忍风险来换取更大的公平?要不要在效率和尊严之间留出余地?要不要让一个背景不占优势的人,也能得到证明自己的机会?这些问题,没有任何模型可以替我们作出最后决定。因为它们涉及的不是“世界是什么”,而是“我们希望世界成为什么样”。
当AI把充满价值冲突的决定伪装成中性的事实,它就会让真正该被公开讨论的问题,悄悄退出讨论。
于是,命运的分配不再显得像政治选择,而只像技术结果;不平等不再显得像制度安排,而只像算法算出来的现实;那些本可争辩的事情,也在“模型如此”的一句话里失去了争辩的资格。
这才是现代神谕最可怕的地方。它不是用神秘压制你,而是用理性说服你;不是让你因恐惧而服从,而是让你因为相信它“更懂”而服从。
AI2028-AI2027-AI2026:巨变倒计时与普通人自救指南
AI时代的风险是锁死,2026年打工人更应该马上开始创业
结语:不要被算法提前算完
当然,没有人会主张一个现代社会完全放弃预测。我们需要统计,需要模型,需要风险分析,需要技术来帮助人类理解复杂世界。
问题从来不在于“要不要预测”,而在于:预测能否越过边界,直接成为决定命运的依据。
一旦预测开始替代判断,开始压过申诉,开始剥夺一个人偏离模型的机会,它就不再只是辅助工具,而成了一种需要被约束的权力。
尤其是在招聘、信贷、保险、教育、医疗、司法、执法和公共服务这些场景里,社会应当警惕的,不只是模型误差和数据偏见,还包括一个更根本的问题:人是否仍然拥有解释自己、修正自己、重启人生的空间。
一个人不该因为过去像某类人,就被提前判定未来也只能如此。一个社会也不能只为了提高预测准确率,就牺牲人作为主体的开放性。
自由社会的前提,不是它能把每个人都计算得更精确。
恰恰相反,自由社会之所以自由,是因为它承认:人的未来不能被过去的数据独自决定;制度不能以“高概率”为名,取消一个人证明自己不同的机会;技术可以帮助我们理解现实,但不能代替我们承担关于公平、尊严和希望的判断。
说到底,我们真正需要捍卫的,也许不只是隐私权,不只是知情权,甚至不只是反歧视权。我们还需要捍卫一种更容易被忽视、却同样重要的权利:
不被提前算完的权利。
因为一个人最珍贵的部分,从来不只是他已经是什么样的人,更在于他始终可能成为别的人。
而只要这个可能性还在,命运就不该被任何神谕提前判决,哪怕是披着算法外衣的神谕。【懂】
#AI时代最大的自由和权利就是不被算法提前预测和算完