Warning: sprintf(): Too few arguments in C:\wwwroot\www.xizhenhl.com\wp-content\themes\covernews\lib\breadcrumb-trail\inc\breadcrumbs.php on line 254

网络内容正分成两层,大多数人将只能看到噪音和诈骗

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust

一、你刷到的”热门”可能是别人花钱请的群演

2026年4月,Justin Bieber贾斯汀·比伯在Coachella音乐节连演了两个周末。

他不需要营销。Bieber是流行音乐史上播放量最高的艺人之一,Instagram上有2.87亿粉丝。Coachella是全球仅次于超级碗的第二大舞台。这种级别的曝光,理论上自己就能制造注意力。

然后有人发现,在Bieber演出的同一时间,几个Discord私密社群里正在发布付费任务:把他在Coachella的表演剪成短视频,发到TikTok和Instagram上。每千次播放给剪辑者1美元。任务公告用全大写字母写着:”THIS IS SO VIRAL GO GO GO GO。”

第二周演出时,同样的社群又发了一轮。

结果很快出来了。Bieber那首《Daisies》的现场视频在Coachella官方YouTube频道上拿到了2100万次播放,是其他同场视频的两倍。他整个曲库随后一周被播放了6.64亿次,较前一周暴涨171%。一首2012年的老歌《Beauty and a Beat》重新登上了Billboard全球榜第一名。

谁付的钱?不知道。Bieber的团队对所有媒体的询问都没有回复。

但事实是清楚的:在全世界最不缺关注的艺人的演出现场,有人付钱制造了更多的”关注”。这些付费切片和真实粉丝的自发传播混在一起。算法分不清,记者分不清,你我也分不清。

这件事指向一个更大的问题:如果连Justin Bieber都在灌水,你每天在手机里刷到的内容,还有多少是真的?

最近看到一篇《纽约》杂志的长篇调查,从”clippings”(切片营销)这个地下行业切入,揭示了社交媒体上的公共意见正在被同一套机器同时生产、测量和操纵。而在另外一个方向,AI正在把人类分成两种:用AI来思考的”作者”,和被AI替代思考的”角色”。

这二者相向而行,叠在一起,可以很清晰地看到:内容生态正在加速裂成两层。上层是少数人创造和消费的真实信息,在算法和广告触及不到的私域和付费圈层中流通。下层是喂给绝大多数人的工业级噪音,伪装成新闻、流行、趋势和公共共识的样子。

而这种分层看似是流动的,其实它比阶层固化还可怕。下面,我们从最底下那层开始讲。

二、切片工厂:当”制造热门”变成一份可外包的低成本生意

先介绍一个人。

Joe Lim,29岁,住在旧金山。三年前他创办了一家叫Floodify的公司。名字很直白,flood就是”灌水”。

这家公司在最高峰时运营着6.5万个虚假社交媒体账号。每天,这些账号在TikTok、Instagram、YouTube和X上发布约5万条视频。表面上,它们和普通用户发的内容没有区别:一个粉丝号发一段演唱会片段,一个梗图号配一首新歌做背景,一个影迷号把恐怖片预告最吓人的20秒剪成循环播放。

这些视频有两个共同点:第一,内容全是”剪”出来的,不是原创;第二,发布它们的账号背后没有人。或者说,有人,但那个人的身份是付费买断的伪装。

这个行业叫clipping,中文里有一个更直观的叫法:切片。操作流程是这样的:一家唱片公司、一家电影公司或一个明星经纪团队找到切片代理商,把需要推广的素材交过去。代理商在私密社群里发布任务(这些社群通常藏在Discord或Whop上),告诉剪辑者:把素材剪成适合短视频平台的片段,投放到TikTok和Instagram。每千次播放1到2美元。

剪辑者自己承担风险。一条视频如果没起量,一分钱拿不到。但如果有一条爆了,他可能一次性赚到几千甚至上万美元。一家切片代理商的创始人告诉《纽约》杂志,他们最顶尖的剪辑者累计收入超过了六位数美元。

对客户来说,这是人类历史上最便宜的广告。一家叫Spade Clipping的代理商联合创始人透露,最近有一个客户花了不到1万美元,换来将近1亿次播放。作为对比:一块户外广告牌的CPM(每千次曝光成本)大约是10美元,一段电视广告的CPM可以到30美元以上。一条标注了”Sponsored”的TikTok官方广告,CPM可能是切片广告的十倍。切片内容没有这个标签,观众以为自己在看”普通人发的东西”。

Joe Lim对自己在这个生态里的位置有一个清醒的判断。他说:”你在网上看到的90%的内容,都是伪装成普通内容的广告。”

90%能不能独立验证,不好说。但这句判断最值得注意的地方不是数字本身。说这话的人不是评论家、不是学者、不是监管者。他是这个行业里的从业者。当一个每天发布5万条伪装广告的人说”90%的内容都是伪装广告”,他不是在批判。他在描述自己的日常。

这种操作在中文互联网上有完全对应的生态。抖音上的影视剪辑号、直播切片号、带货切片号,本质上是同一套逻辑。一个主播播了三个小时,切片团队把它切成几十条30秒的视频,分发到几百个账号上。你刷到的时候不会觉得是广告,它看起来就是一段”好玩的直播片段”。算法看到互动上涨,继续推给更多人。

中国的切片生态甚至进化出了更精细的分工:专门做”情绪切片”的(只剪主播吵架、哭、爆金句的片段),专门做”冲突切片”的(只剪主播和连麦对象互怼的),专门做”反转切片”的(只剪一个事件前后对比最强烈的几十秒)。每一种切片都瞄准一种特定的算法信号:愤怒、惊讶、感动、好奇。平台就是按这些信号来分配流量的。

很多人可能会想:切片也没那么坏。一个歌手的歌被更多人听到了,一部电影的预告片被更多人看到了,有什么问题?一个创作者的作品本身是好的,只是没被发现,切片让它被发现了,这不是好事吗?

这个问题的答案,藏在第二层操作里。

0.02%的幸存者:当做一个APP比约人吃饭还简单,真正值钱的是什么?

今天比任何时候都更容易翻身:300年现代财富史揭穿了一个时代错觉

三、叙事操控:你看到的”评论区的共识”也是被做出来的

切片的作用是让你”看到”。但”看到”一条视频,和”接受视频传递的判断”,是两件事。第二件事叫叙事操控。

Chaotic Good Projects是一家数字音乐推广公司。今年3月,它的两位联合创始人在South by Southwest大会的一个公开对谈里,用很轻松的语气描述了自己的工作方式。

联合创始人Jesse Coren说,他们在”叙事端”做的是”控制话语”。他举了一个例子:如果一个艺人在《周六夜现场》(SNL,美国最老牌的深夜综艺节目,已有50年历史)表演了,那么”在SNL播出后的凌晨那几分钟,你就应该在社交媒体上发一百条帖子说:这是今年最好的表演”。

他的逻辑是:多数人没有时间听完一整张专辑、看完一整场演出。他们会先看标题、看评论、看转发,看那些”和自己相似的人”怎么说,然后把这些信号当成自己的初始判断。既然人们已经把判断外包给了”人群”,为什么不先制造一个”人群”?

Coren的原话是:”大多数人看到一个视频,或者看到一张新专辑的讨论时,他们看到的第一条评论,就成了他们自己的观点,即使他们根本没听过那张专辑。”

这句话的重点是,它不是在说算法怎么操控人。它说的是人怎么利用人的本性来操控人。利用的东西比代码漏洞更基础:一种心理事实。

当信息量大到超过一个人的处理能力时,他会把判断外包给社会信号。谁先占据了这些信号的发射位置,谁就占据了这个人认知的入口。

Chaotic Good后来答应接受《纽约》杂志采访,然后在约定时间前五分钟取消了电话,改成了邮件问答。在邮件里,他们收回了大部分之前说的话:”那只是一个假设性例子”,”叙事活动主要是数字公关策略咨询”。

往哪个方向信?舞台上说的和邮件里写的,到底哪一次是”策略”?

更隐蔽也更和普通人利益相关的,是叙事操控已经扩展到的范围。一家叫Gudea的AI行为情报公司(主要业务就是用AI追踪社交媒体上的协同操纵行为)发现,同样的技术正在被用来操纵股价、推广护肤品、塑造AI话题舆论、攻击竞争对手的品牌声誉。

Gudea的联合创始人Keith Presley说,他们现在的很多客户是大型企业,这些企业雇Gudea的目标是防守:防范竞争对手对自己做的叙事操控。这场攻防战已经是所有人对所有人的了。

Presley举了一个例子。2026年2月超级碗中场秀之前,围绕Bad Bunny(当今全球最火的拉丁音乐艺人)的争议在社交媒体上爆发了。保守派评论员批评NFL选了一个西班牙语艺人,进步派回击。Gudea分析了370万条相关帖子,发现参与讨论的账号中,不到4%的账号产出了超过四分之一的全部内容。两边的对立叙事在发布量、发布时间分布上高度镜像,像一个模子刻出来的。

谁在为这件事付钱?Gudea推测可能是国家行为者。但也有另一种可能:NFL和Bad Bunny自己的团队。

中场秀最大的资产就是”全民关注”,而争议在注意力经济里,是性价比最高的曝光形式。等这场对骂烧完,NFL得到了整整一周的饱和报道,Bad Bunny得到了连全球巨星花多少钱都未必能买到的关注度。两边都是赢家。

唯一输的,是那些真情实感参与骂战、以为自己在”表达立场”的普通用户。他们的愤怒和时间,被人当成燃料烧了。

同样的剧本在2025年Sydney Sweeney(美国新生代演员,因《亢奋》走红)的American Eagle广告风波中也上演了。广告语”Sydney Sweeney Has Great Jeans”被一些账号解读为种族优越的暗示,引发大规模反弹;另一批账号则开始嘲讽这个反弹;然后特朗普在Truth Social上出来为Sweeney站台。

一家叫Cyabra的假账号检测公司分析了7天的讨论,发现参与评论的TikTok账号中,15%是虚假账号,但制造了绝大部分争议内容。Cyabra的CEO Dan Brahmy说:”公众反应不全是假的,但它被虚假活动放大了。”

在这次争议中,American Eagle的股价涨了10%,新增约4亿美元市值。American Eagle发了一条几乎毫无意义的声明(”好看的牛仔裤穿在谁身上都好看”),几天后才姗姗来迟。

这种操作在中文互联网上的变体,读者应该不陌生。热搜的买卖、评论区”风向管理”、同一条事件在同一时间被截然对立的两个群体引用。这些现象已经不需要阴谋论来解释。很多人默认这就是操作方式。

底线是清楚的:公共讨论正在被工业化。你在评论区看到的”大家好像都这么想”,可能是几个人付了钱的产品。

三、两层分裂:从”谁能看到什么内容”到”谁在替谁思考”

看到到这里,我们可以很容易得到一个结论:互联网上的流行、趋势和共识,已经被制造、放大和模拟的机制渗透了。

但这件事如果只停在”很多人被骗了”,还不够深。因为AI正在从另外一个方向杀入战场。

AI正在把人类分成两种。一种是”作者”,用系统来思考。另一种是”角色”,被系统替代了思考。

以一个常见的生活场景为例。两个孩子都在看屏幕。一个孩子手里是”无限的iPad”:视频、信息流、色彩鲜艳的推荐内容,经过精密的算法设计,除了索取她的注意力之外,什么都不要求。另一个孩子面前是一个AI导师:耐心、严格、需要她付出努力。它会问她”你是怎么想的”,以及”为什么这个答案比另一个更好”。

同样都叫”AI技术”。同样都是矩形屏幕。但它们在往两个相反的方向塑造人:一个训练大脑保持被动,一个训练大脑保持主动。

成年人也在经历同一种分化。放射科医生里有两种:自己先读片子再核对AI结论的,和直接看AI结论的。公民中也有两种:让AI用最强逻辑替自己最讨厌的候选人辩护、然后自己来反驳的;和扫一眼AI总结、点头、投票的。

从外部看,这两类人很难区分。把判断外包出去的人甚至可能看起来更优秀:更快、更流利、更多产。在这个推崇”效率”的时代,他们像是赢家。

但有一个后果严重的区别:从内部来看,某种东西正在被掏空,而他们自己会是最后一个察觉的人。

这把前两节的讨论推到了更深的层面。切片工厂和叙事操控,描述的是内容层面的分层:有人看到的是被设计过的噪音,有人看到的是经过筛选的真实信息。但”作者与角色”这层分化比这更根本。不是”你能接触到什么内容”的问题,而是”你还有没有能力自己判断内容”的问题。

这两层分层是互相强化的。

你每天看到的都是被制造出来的”流行”,你的判断力就没有锻炼的场所。你不知道什么是真的,什么是假的,什么是半真半假的。你也不知道自己不知道。然后,当一个向你兜售判断力的AI产品出现(”不用想了,我帮你想好了”),你就更容易接受它。”自己判断”这件事太累了,而且你从来没有真正练过。

这就进入了一个闭环:假内容让你放弃判断;AI让你养成外包判断的习惯;你更分不清真假内容了;你更需要AI帮你判断。这个闭环每转一圈,你离”作者”就远一步,离”角色”就近一步。

这个闭环有一个精确的名字,叫托克维尔式奇点。托克维尔(Alexis de Tocqueville,19世纪法国政治思想家,以对美国民主的经典研究闻名)曾提出一个概念叫”监护性权力”:一种不实行暴政,而是”压制、削弱、熄灭并使人变得愚钝”的权威。

在AI时代,越来越好的AI系统让我们越来越依赖越来越好的AI系统。这个闭环不断收紧,直到你再也没有一个可以从外部审视它的立足点。

这里有三个问题值得经常问问自己。

第一,AI是在延伸你的思考,还是在抢占你的思考?当AI在你的思考中成了”先发者”(先于你提出问题框架、草拟答案、让你只能做选择题),它就已经不是工具了。

第二,帮助什么时候变成了监护?一个父母替孩子做选择,不是支配,是养育。但如果这种”替”一直不停、不接受质疑、不让你成熟为对等的同伴,它就不再是帮助。它是用喂养的方式把你永远留在一个需要被喂养的状态里。

第三,便利是不是就是命运?电视机、糖、快餐、智能手机,大多数便利事物都在没有遇到重大抵抗的情况下重塑了日常生活。AI的反作用力,会不会也一样?

这些问题没有标准答案。但它们把镜头从”内容”身上移开,对准了我们自己。

判断力的无产阶级:AI算法下的第一批炮灰已经诞生

你已经不再是地球上最聪明的存在了

四、矩阵已至:大多数人正在被一层设计过的信息层承包

马斯克说过一句流传很广的话:未来只有特权阶级才有能力断网。因为绝大多数人靠网络谋生、在网络中社交、用网络理解世界。他们没法离开。而拥有资源的人,反而可以选择断开连接,选择独处,选择不被打扰。

他说这句话的时候,很多人当段子听。放在今天的语境里,已经是现实的速写。

把切片生态和认知分层叠在一起看,浮现的是一幅完整的画面:绝大多数人的手机里,装着一个由几家公司、几千个代理商、几十万个剪辑者共同维护的”拟态世界”。这个世界里的流行歌曲、热门话题、评论区共识、朋友圈刷屏,每一层都可能混入了付费制造的内容。

这些内容的设计目标优先服务于让你停不下来;”让你知道更多”不在设计指标里。让你保持在一个”信息饱和但认知空白”的状态里,高于让你理解这个世界。

这种状态是消费主义、政治动员和注意力经济最理想的土壤。

这是一种新的社会分层机制。过去的分层靠财富、靠教育、靠社会关系网。这些东西至少是可见的:你知道谁有钱,你知道谁进了好学校。但在信息时代,分层正在转移到一个更不可见的地方:你的信息环境。

两个人站在同一个城市,用同一个价位的手机,刷同一个App。但他们看到的是两个世界。一个人看到的是被算法精准喂养的、被商业力量精心设计的、被无数假账号反复强化的”共识流”。另一个人看到的是经过自己筛选的信源、经过交叉验证的信息、经过独立判断得出的结论。

这两个世界之间的差距,比贫富差距更难弥合。贫富差距至少可以量化:你有多少钱,我有多少钱,数字摆在那里。但信息环境的差距是不可见的。你根本不知道你不知道什么。你甚至不知道,自己被困在一个被设计过的信息层里。

我管它叫”信息喂养层”。

“信息喂养层”不是”信息茧房”的升级版。信息茧房描述的是”你只看到你想看的”:它至少还假设了一种用户的主动性,你选择了你的偏好,算法放大它。喂养层不需要你主动选择任何东西。你只需要把拇指往上滑,剩下的事已经有人替你做好了。你看什么、信什么、传播什么,不是你选的。它是那个系统被设计的结果。

你不是在”刷”信息。你是在被信息”过”。

这里有一个容易被忽略的残酷细节:在这个系统里,最需要信息辨别力的人,恰恰是最没有条件培养信息辨别力的人。一个每天工作12个小时的外卖骑手,没有时间也没有精力去”交叉验证信源”。他在短暂的休息时间里刷到的每一条内容,都在利用他的疲惫。而那些既有时间也有资源培养辨别力的人,正在逐渐退出这个公域信息生态,进入私密的、付费的、需要某种认知门槛才能进入的信息圈层。

结果就是:知道怎么分辨真假的人,不玩这个游戏了;还在玩的人,不知道这个游戏在玩他们。

这已经不是一个”信息污染”的问题了。这是一个结构问题。系统需要噪音。噪音让平台有内容可以分发,让广告有地方可以投放,让大多数用户保持一种无害的、被动的、可被预测的消费者状态。

为什么聪明人正在纷纷逃离社交媒体?

当AI生成一切,聪明人开始抢占叙事资本和认知编程权

五、个体创作者的困局:你跟六万五千个假账号竞争

如果你是做内容的(写公众号、做视频、录播客、画画、写代码做产品),只要你靠”把东西做出来然后让人看到”来谋生,你现在就站在这个撕裂的生态里。

你花三天写一篇文章,花两周剪一个视频,花半年写一本书。然后你把它发到网上。

它出现在什么样的环境里?在一个每天有5万条切片视频被6.5万个假账号灌进同一个平台的环境里。在一个代理商可以用不到1万美元换来1亿次播放的环境里。在一个”热度”和”质量”之间已经没有任何确定关系、只有”谁付了钱”和”谁的东西撞上了算法的G点”的环境里。

你做的东西再好,又能怎样?你的竞争对手不是另一个创作者,是一套工业化的伪装系统。

平台没有动力改变这一点。TikTok、Instagram、小红书、视频号、YouTube需要海量短视频来填充用户的信息流。切片内容为它们提供了免费的、无限的、随时可更新的内容供给,还附带真实的互动数据。

平台偶尔会”整治”一下,关一批明显违规的账号。但底层激励结构没变:只要平台靠注意力卖广告赚钱,只要算法奖励”短时间内的高互动密度”,假内容就天然比真内容有传播优势。

《纽约》杂志的记者分别问TikTok、Instagram和YouTube是否了解切片活动的规模、打算怎么处理。TikTok说”当我们发现这类违规内容时,我们会移除”。Instagram没有直接回复,但最近宣布了一条新规:如果你的账号主要分享别人创作的内容而你自己没有做”有意义的编辑”,账号就不会被推荐给不关注你的人。YouTube回了一段标准的企业声明。

第二天,记者在他一直监控的Discord服务器上看到了一条新的切片活动。推广的内容是Google I/O,YouTube母公司自己的年度开发者大会。

记者没有加任何评论。这个细节本身就是评论。

对个体创作者来说,这个困局没有简单的解法。你不可能和6.5万个假账号拼数量。你不可能和一个可以用1万美元买到1亿播放量的代理商拼预算。你不可能和一个”对立双方可能是同一只手在付钱”的叙事操控系统拼传播策略。

你唯一能拼的,只有一种东西:不可被伪造的真实性。

AI可以生成一篇”看起来很对”的文章。一个切片团队可以制造一个”看起来爆火”的视频。但它们做不出一段有真实痛感的经历,做不出只有真正做了十年某件事的人才能讲出来的洞察,做不出一个人对另一个人说”我懂你的处境”时那种无法量化的信任。

这是创作者在新生态里唯一的、不可被复制的立足点。

但问题是,大多数平台在设计上并不奖励这种东西。深度需要时间才能被阅读,信任需要时间才能被建立,真实需要时间才能被感知。而时间,是算法最不愿意等待的。

跑赢AI的进化,你需要的不是龙虾,而是个人品牌

2026年了,AI量产内容做IP是一场注定的败局

六、抵抗分层:几条不太让人舒服的出路

第一条:缩小你的信息入口,并且为信息付费。

这不是道德建议。这是一个冷血的工程判断。如果你每天刷的信息是算法推给你的,这些信息的设计目标就是让你”停不下来”而不是”知道更多”。这是两种完全不同的产品目标。没有人会给广场上的噪音收门票,但有人会给安静的书房收钱。

付费内容不一定比免费内容好。但免费内容生态里,生产者的生存压力天然迫使他朝”流量最大化”的方向走。流量最大化的方向就是情绪最大化的方向,也就是噪音最大化的方向。

付费创造了一种不同的激励机制:生产者对读者负责,不是对算法负责。这两条线索通往完全不同的内容质量。

第二条:不要在”分辨真假”上追求完美。追求”知道什么时候该怀疑”。

很多人在意识到信息环境被污染后的第一反应是:去验证每一条看到的信息。这条路走不通。信息量太大,验证成本太高,而且大部分信息不值得验证。

更现实的策略是建立一种怀疑的直觉:当你看到一条让你极端愤怒或极端兴奋的内容时,把这种强烈的情绪本身当成一个信号。这个信号不是在说”这条消息一定是真的”。它在说:”这条内容的设计目标,可能就是让你产生这种情绪。”

Joe Lim自己说过,当前这种社交媒体假热度的生态”可能也就再持续三到五年,因为人们会逐渐不再相信自己在平台上看到的任何东西”。但他不是在预言美好的未来。

他说的是,到时候操控不会消失,只会换战场——从人类的信息流,转移到AI代理层。”你会开始把内容分发到AI代理身上,然后让AI来告诉人类该看什么、该信什么、该买什么。”

这才是真正的未来恐惧:不是你被假内容骗了,而是帮你判断真假的那个AI,本身已经被喂了被操控过的数据。而你选择信它,因为”自己判断太累了”。

第三条:对创作者来说,策略不是”做更大”,是”做更深”。

在一个被机器和资本碾压的内容生态里,你能犯的最大的错误就是用对手的游戏规则去跟它竞争。你不可能在”播放量”、”互动数”、”日更频率”这些维度上赢过切片工厂。

但你可以在一个维度上完全碾压它们:你是一个真实的人。你有真实的经历、真实的困惑、真实的判断。这些是六万五千个假账号永远造不出来的。

这听起来像是一句正确的废话。但它实际上是一个极其冷静的商业判断:在一个假货泛滥的市场里,真货的溢价反而最高。只是这种溢价不会立刻反映在播放量上。它反映在信任的复利上:读过你文章的人会回来,信任你的人会付钱,理解你价值的人会变成你的传播节点。这些事发生得很慢,但一旦发生,机器就复制不了。

别再做时间的朋友了,AI时代“空间”才是你致富的朋友

别再学巴菲特了:致富的主战场已经转移,但没人告诉你

最后,这不是一篇劝你退网的文章。退网是一个只有特权阶级才真正拥有的选项。绝大多数人还得靠网络谋生、学习、社交、表达。退不了。

但退不了,不等于你只能被算法和切片工厂任意塑形。知道这场游戏是怎么玩的,本身就是一种权力。

当你下一次看到一个”全网都在讨论”的话题时,当你刷到一条让你暴怒或狂热的评论时,当算法又推给你一个”你一定想看”的内容时,花两秒钟停下来,问自己一句:

“我是作者,还是别人作品中的一个角色?”【懂】

#网络内容正分成两层大多数人将只能看到噪音和诈骗

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注