几个月前,我还向身边朋友推荐 DeepSeek,说它是做自媒体的新杠杆,是写作者的好助手。
但就在最近,我有点不敢跟人推荐了。
因为我突然意识到,DeepSeek 正在被整个互联网内容的“反向污染”。
上周在用 DeepSeek 写一篇内容策略稿时,我开启了联网模式,期待它通过联网帮我找到调研资料,提炼出更具时效性和深度的内容。
但它给我呈现的,却是一堆从百家号、企鹅号、内容池里,找来一堆“垃圾信息”。
我脑中瞬间闪过一个比喻——DeepSeek 就像一个在内容坟场里捡垃圾的拾荒者。
而更可怕的是:它捡来的,正是这个时代 AI 大模型每天吐出的“排泄物”。
这是一个令人绝望的闭环:
平台用 AI 写内容 → 内容被投喂进搜索引擎 → 大模型在网络中学习 → 用户再用 AI 生成内容 → 再被平台抓取……
从内容创作到内容消费,全链路都充斥着“AI 写 AI”的恶性循环。
很多人把这当作技术问题,说靠算法优化、语料清洗就能解决。但这就像在化粪池里做净水实验,底层结构出了问题,算法再强也无力回天。
我甚至抓取了今日头条热榜数据做测试,结果发现:
一段内容被 AI 连续重写 5 次,关键信息的误差率越来越高了。
信息失真,观点空洞,大词滥用……这些“语义尸体”正在悄无声息地吞噬中文互联网上的语言肌理与表达空间。
说实话,我最初是喜欢 DeepSeek 的。它结构清晰、逻辑完整、语言规范。但用久了,你会发现它最大的问题:
它太像自己了。
你写什么,它都回你一篇“像样”的长文。
你只需要一个标题,它就能生成 2000 字长文。但你认真一看,会发现:
所有段落都“对”得离谱,但没有一句话能打动你;
内容结构像流水线产品,每一段都合乎规范,但毫无温度;
每个行业、每个问题,都是“大词”堆叠、套话成山。
这就是所谓的“DeepSeek 文风”,甚至已经被公众号、自媒体、PR稿写手广泛套用,形成了一个内容伪原创的产业链。
只需一行指令,就能批量生成 50 篇“公众号爆款”的伪爆款。
AI 加算法成了流量骗局的新武器,而我们正在变成它的受害者。
这几个月,我测试了 DeepSeek、ChatGPT、Kimi、元宝等多个主流模型,发现 DeepSeek 在连接网络信息后,表现最差。
问题其实非常直白:DeepSeek 联网之后,像极了一个掉进信息垃圾池的老鼠,啃什么都带点毒。
你以为它会去找一些干净、真实、有深度的内容来参考,结果它转了一圈,满嘴都是头条号的浮夸标题、知乎的碎片观点、公众号的套路段落——看上去“像模像样”,但骨子里全是泡沫。
它的结构太标准了,标准到不像人写的,像一个早就预设好答案的客服机器人,你一问,它就把模板往你脸上糊。
逻辑顺,语法对,就是没营养,没灵魂。
更严重的是,它现在的“大脑”已经被平台上的垃圾语料反复投喂,彻底学坏了。它学会的不是表达,而是模仿;不是写作,而是拼贴。
我以前真心相信,AI 会是内容创作者的“解放者”,是我们提升效率、打开认知的工具。
现在我慢慢意识到,如果不控制好使用方式,AI 不但不能帮你进化,反而会拖着你一起坠落。
现在我意识到,如果使用方式错了,它反而会拖垮内容质量,拉低表达的平均水准。
如今的内容平台,正深陷一场“伪内容的军备竞赛”:
一个爆款文章刚上线,24 小时内就能刷出 500 篇高度相似的“伪爆款”;
一个热门关键词刚刚冒头,DeepSeek 等模型就被集体调用,批量合成“AI版本的跟风解读”;
一个话题刚冲上热搜,自媒体号已经在用生成模型刷满榜单。
内容生态正在急速塌缩,语料污染指数级上升,而真正具备认知价值、经验密度和深度思考的内容,在快速消失。
据不完全估算,过去三年中文互联网的“有效语料”减少了 68%,而“AI 垃圾数据”增长了 200%。
更令人警惕的是,平台早已不再关心“谁在创造内容”,他们只看两件事:
能不能通过算法审查?
能不能触发流量闭环?
也就是说,内容是否原创、是否真实、是否具备思考的价值,全都退居二线。只要形式够像、标题够冲、关键词够热,系统就能判定为“合格作品”。
我们用了二十年搭建起中文信息文明,结果短短几年,被算法主导的伪内容逻辑摧毁大半。
现在的内容生态,更像一个被资本和流量合谋驯化的信息养猪场:
第一步,用激素算法催肥吸引用户注意力;
第二步,用内容垃圾泔水喂养 AI 模型;
第三步,再把这些“高仿合成信息”反哺回市场;
最终,所有人吃着自己吐出来的东西。
真恶心!!
在信息泛滥、模型横行的时代,每一个内容从业者都面临新的选择:你是要成为“AI喂养器”,还是坚持做“有价值的表达者”?
这不是技术问题,而是认知选择。
以下是我给所有认真做内容的人,三点建议。
01. 审慎使用 DeepSeek:别让它吞噬你的表达力
DeepSeek 不应该成为创作的起点,它更适合放在“结构拆解”“信息整合”这类辅助环节上。
它是一个效率助理,不是你的思维引擎。
如果一篇内容,从问题设定、结构框架到语言风格,全部交给模型去处理,那么你只是在把自己变成一条流水线上的“合成工人”——失去了表达的锋利度,也失去了和世界建立联系的能力。
使用 DeepSeek 的正确方式是:
1、在创作初期,用它收集信息、归类逻辑;
2、在中期构思,用它做结构演练、逻辑打磨;
3、但在真正表达观点、构建洞察时,收回主动权。
真正打动人的内容,永远是你独立思考之后形成的那一段“非标准答案”。
02. 建立属于你自己的“信息茧房”:抵抗内容污染
今天的信息环境,早已不是信息匮乏,而是语料毒化。
一个糟糕的推荐算法+模型生态,可能让你在不知不觉中被海量“伪内容”侵蚀。最可怕的是:你并不知道你被污染了。
所以你需要构建自己的信息茧房——一个属于你的内容避难所。
• 只订阅值得信任的创作者;
• 构建你的个人知识库和信息筛选系统;
• 定期清理内容输入源,减少平台控制的“喂养”。
茧房不是封闭世界,而是你的认知净化器。
真正的开放,不是让垃圾内容自由进入,而是你拥有选择、判断、过滤的能力。
03. 记住:AI 是效率杠杆,不是价值来源
AI 能做的,是提升你的信息处理能力,但它无法取代你的“认知密度”。
真正稀缺的,是你作为人的这些能力:
• 判断力——在混乱中找到关键问题;
• 故事力——用经验打通人与人之间的理解;
• 创造力——从常识中长出非常识的表达。
AI 可以重组语料,但无法生成洞察;
它能做出“像文章”的段落,但无法打动人心。
如果你只是用 AI 提高速度,最终你会和其他人一样,成为平台的一段可替换语料;但如果你用 AI 放大思考,那它就能成为你表达的倍增器。
在 AI 内容时代,最核心的竞争力,仍然是那一份“不可以被训练出来的东西”——你对世界的独立观察、对表达的热情,以及你不肯被模板化的坚持。
不是怕用 AI,而是怕你失去了成为创作者的本能。
要入局,也要有意识地保留一块不被模型控制的空间。那将是你真正的价值所在。
我不是技术悲观主义者,但我也不会再做技术的盲目信徒。
DeepSeek 们不是“坏”,但他们正被中文互联网带入一个充满幻觉、滥用与污染的死循环。
今天,我们还可以按下暂停键,去思考:我们到底需要什么样的 AI,以及我们如何使用 AI 不成为“信息毒源”的一部分?
如果 AI 真的是这个时代的工具,那么我们应该做的,不是把写作交给它,而是用它,延伸人类表达的能力,而非消解它的意义。