当AI的浪潮席卷每一个行业与个体,我们听得最多的,是 AI 无所不能的神话:它能帮公司降本增效,能帮普通人变现赚钱,能颠覆所有传统行业,甚至能替代绝大多数人的工作。但在这场工具理性的狂欢里,我们最该看清的,从来不是AI能创造多少想象,而是它的能力边界到底在哪里?我们该如何与这项技术相处,而不是被它裹挟,甚至被它异化?

一、企业端的AI:效率的狂欢,与效果的迷思

对绝大多数企业而言,引入AI的核心诉求从未偏离过四个字:降本增效。降本,是用AI替代重复性劳动,压缩人力成本;增效,是借AI的辅助,让剩余人力释放更高的产出效率。但是效率的提升,从来不等于最终效果的达成。

AI能帮企业把文案产出速度提升10倍,却不能保证这些文案能真正打动用户;AI能帮技术团队快速生成代码,却不能保证这些代码没有隐藏漏洞,能完美适配业务需求;AI能帮企业完成海量信息整理,却不能替代管理者做出符合行业趋势与企业现状的经营决策。当太多企业把AI当成降本增效的万能药,却忘了企业经营的核心,从来不是更快的产出,而是更准的判断、更有价值的成果。

资本用AI替代人,是刻在骨子里的本性。早在百年前的工业流水线时代,亨利・福特就曾发出过那句经典的抱怨:“我雇的明明是一双手,怎么却来了一个人。” 在工业时代,资本需要的只是能完成标准化动作的劳动力,而非一个有情绪、有需求的人;到了数字时代,这个逻辑从未改变,资本需要的只是能产出代码、文案、设计成果的“头脑”,而非一个需要发薪、缴纳社保、会情绪波动的职场人。

AI的出现,完美契合了资本的核心诉求:它只有一次性的固定投入成本,没有持续变动的人工成本,不会罢工,不会抱怨,能24小时不间断地产出。当资本可以用AI替代越来越多的人力,普通人就会慢慢失去通过劳动获得生存报酬的机会。而掌握着AI核心技术与生产资料的资本,会完成财富的集中。如果AI沿着私有化方向一路发展下去,最终只会走向刘慈欣在《赡养人类》中描绘的 “终产者” 结局:整个世界的所有资源、生产资料、甚至生存空间,最终只被极少数拥有最顶尖AI大脑的人所垄断。这不是科幻,而是资本逻辑与AI技术结合后,顺理成章的推演结果。

但即便资本对AI寄予了无限期待,AI依然有它无法突破的底层边界,而这些边界,恰恰是企业经营中最核心的部分。首先是无法完成精准的操作与表达,更做不到100%的事实核查。在航空航天、精密制造这类容错率为零的领域,AI生成的指令、代码、操作方案,永远无法直接落地使用,必须经过人工的反复核查、校验、修正。在医疗、法律这类需要极致严谨的行业,AI 更无法替代专业人士的判断,一份病历的诊断、一份合同的拟定,差一个字、一个表述的偏差,就可能造成医疗事故、法律纠纷。而当前AI无法避免的生成幻觉、信息偏差,让它永远无法独立完成这类需要绝对精准的工作。

更重要的是,AI没有身体,无法产生“具身认知”,人类的智能与意识很大一部分源于肉体感官与物理环境的互动的。AI由于缺乏身体,其对世界的理解仅仅停留在画面、符号与统计概率的表面,这意味着AI无法产生真正的“理解”与“常识”。即使有目前的机器人拥有良好的视觉与听觉识别系统,而人从视觉听觉接收到的信息也占所有信息的94%,但还有味觉、嗅觉、触觉与身体内觉的信息,它们都还没有被信息技术呈现出来,也无法被机器人识别,尤其是身体内觉的信息。所以,即使现在AI机器人能做很复杂的武术动作,但它的一些与人相关的“常识”是不具备的。

二、个人端的AI:工具的价值,与异化的陷阱

当下太多人讨论AI,都只围绕着一个核心:怎么靠AI赚钱(详见《AI狂潮里的淘金真相:泡沫之下,谁在真正赚钱?》)。这种把AI彻底异化成赚钱工具的认知,恰恰让我们忽略了AI最本真的价值:它首先是一个能帮我们解决日常需求、降低生活与创作成本的工具,而且这种价值,很多时候是免费的、普惠的,不需要我们靠它赚一分钱,就能实实在在地改善我们的生活。

我自己对AI的使用,从来都不是以赚钱为主要目标。最早技术工具是语音识别,帮我把口述的内容快速转化成文字,那里还没有作为AI功能来开发;到现在,我常用AI功能,是让AI帮我把语音输入的零散草稿、随手写的提纲,整理成一篇逻辑通顺、结构完整的文章。它能让我脑子里零散的想法快速成型,不用把大量的精力消耗在字斟句酌的打磨、语序的调整上,只需要专注于核心观点的表达,这就是AI给我带来的最直接的价值。除此之外,我会用AI做信息搜索,帮我快速梳理海量信息的要点;用它做内容总结,把长篇的报告、文章、视频、音频内容浓缩成核心观点;用它做创意发散,帮我从不同的角度联想。这些需求,都与赚钱无关,却帮我节省了大量的时间与精力,让我能把注意力放在更核心、更有价值的事情上。

但在日常的使用中,我也越来越清晰地看到AI的能力边界,也始终坚守着一个底线:尽信AI,不如没有AI。AI能帮我搜索答案,但它给出的内容,往往细节完善、逻辑通顺,结果却不一定正确,甚至会凭空捏造虚假的信息、数据、案例,也就是我们常说的AI幻觉;它能给我生成一套看起来天衣无缝的解决方案,却往往脱离实际场景,根本无法落地执行,更谈不上是最优解。

AI能帮我总结内容、发散创意,却无法做到真正的触类旁通、跨领域的深度思考。它的联想与发散,本质上是基于文字的拼接与重组,而不是像人一样,基于对不同领域的深度理解,产生跨界的顿悟与创新。它能模仿我的写作风格,整理我的观点,却无法复刻我藏在文字里的个人心境、独特的人生体验与只属于我的表达节奏。

三、进化中的AI:记忆的边界,与心智的起点

当下的AI,正在突破一个新的能力边界:长期记忆。现在很多AI工具,都已经能支持用户设置长期记忆,它能记住用户设定的规则与偏好,每一次新的对话,都会自动调取这些长期记忆融入上下文,生成更贴合用户需求的结果。这种能力的出现,意味着AI已经进入了角色心智阶段的早期——它不再是每一次新会话从零开始的工具,而是能基于持续的记忆与规则,产生更把你当“人”的回应。

但现在,它无法像人一样,处理多角色的复杂切换,更无法应对不同角色之间相互冲突的记忆与规则。人在社会中,本身就同时拥有多个角色,在工作中是职场人,在家庭中是父母,在朋友中是伙伴,不同的角色,对应着不同的行为规则、不同的记忆重点、不同的诉求表达,甚至有些规则之间是相互冲突的。而当前AI,还无法完成这种复杂的多角色心智构建,更无法在不同的角色之间,完成自然的切换与适配。

随着AI记忆功能的不断进化,新的风险也随之而来。首当其冲的,就是虚假记忆的问题。我们可以通过规则设定,让AI记住正确的信息,同样也可以轻易地给它植入错误的规则、虚假的信息,让它形成虚假记忆,这些虚假的内容,不仅会让它生成错误的结果,甚至可能会持续毒害整个模型的输出逻辑。而当前,这种风险还没有完全显现,只是因为AI的记忆内容,会被底层的训练数据、人工审核的内容所修正,但如果AI的记忆(规则)权重不断提升,对用户新输入的反应依赖度越来越高,虚假记忆(规则)的危害就会被无限放大。AI厂商自然会记录用户的每一次对话内容、每一条记忆设定,并根据人们设置的规则作为输入,来训练更“人性化”的模型。如果错误或恶意规则进入到厂商的模型,并在训练中没有被审核与修正,那之后可能会产生具有破坏性的内容与结果。

说到底,AI从来都不是无所不能的神话,也不是会毁灭人类的洪水猛兽,它只是一个能力有边界、有长处也有短板的工具。它能帮我们提升效率,却不能替代我们对最终结果的负责;它能帮我们生成内容,却不能替代我们独立的思考与判断;它能帮我们完成机械的劳动,却不能替代我们在物理世界的真实行动与体验;它能帮我们快速积累信息,却不能替代我们真正的学习与成长。在这个人人都在追逐AI风口的时代,我位应该看清它的能与不能,用好它能做的事,用它做好事,让它成为放大能力的杠杆,而不是替代我们大脑的枷锁。