最近这段时间里,我做了一件比“让 AI 帮我写文章”更麻烦的事:不是继续打磨 Prompt,而是先让它系统分析我过去十年的文章,再把这些分析结果整理成一个可以被反复加载的写作 Skill。
这件事的起点很现实。我已经用 AI 写了一段时间东西,但始终被同一个问题卡住:输出不稳定。换一个模型,换一个入口,甚至只是换一次对话,文章的结构、节奏和判断密度就会明显漂移。上一轮它还能沿着我的方式推进,下一轮就滑回标准的“技术综述腔”:段落碎、观点平均、判断变弱,最后再用一句安全但无效的总结收尾。
后来我才意识到,问题不在模型不够强,而在我一直试图用一次性的 Prompt 去解决一个本质上需要长期维护的问题。我要的不是“这一轮像我”,而是“以后每一轮都能稳定地接近我”。真正需要被工程化的,从来不是几句像我的措辞,而是那些决定文章结构、节奏和判断力的写作决策。
所以,这篇文章真正要讨论的,不是 AI 能不能模仿个人风格,而是个人写作经验能不能被提炼成一个可安装、可复用、可维护的能力单元。对我来说,这个单元的名字,就是
/phodal-writer。
很多人第一次让 AI 模仿自己的写作风格,做法都差不多:挑几篇范文贴进去,再补一句“按这个风格写”。前几段往往还能看,写到中后段就开始失真。它也许复现了几个表层信号,比如常用词、某种句式,甚至某种语气,但一旦进入结构推进、章节拆解、判断收束这些更深一层的决策点,输出就会迅速平均化。
原因并不复杂。所谓“风格”,本来就不是一组孤立的措辞偏好,而是一整套分布在不同层级的写作决策。什么题值得写,什么题不值得写;开头应该从现实冲突切,还是从实践经验切;正文该按阶段拆、按角色拆,还是按问题维度拆;判断句应该落在段末还是节末;结尾是压缩判断,还是保留开放邀请。这些东西如果没有被显式提取,AI 每次能够复现的,就只会是你刚刚在对话里临时提到的那几个表层线索。
这也是为什么,作者本人往往也说不清自己的风格。你问一个写了很多年文章的人“你的风格是什么”,他多半只能给出几个抽象词,比如“工程视角”“结构化”“判断性强”。这些词当然没错,但它们离可执行的规则还很远。真正困难的,从来不是描述风格,而是把风格拆成一条条在写作过程中可以被调用的决策规则。
所以,真正的问题不是“AI 能不能模仿我的风格”,而是“个人风格能不能被还原成一套稳定的写作系统”。前一个问题更像效果展示,后一个问题才真正进入工程实现。
想清楚这一点之后,我做的第一件事不是写 Prompt,而是整理样本。我把过去十年左右的文章按时间拆成三段:2014-2019、2020-2023、2024-2025。这样拆,不是为了回顾写作史,而是为了避免把不同阶段的特征混成一个平均值。
一个持续写了十年的人,风格本来就在演化。早期的文章往往更直给,甚至带点清单式推进;中期开始出现更稳定的结构骨架,但有时还是会从定义和总论起跑;近两年的文章,才逐渐稳定成“具体观察启动 -> 问题命名 -> 分层拆解 -> 工程判断收束”的节奏。如果不分阶段,AI 很容易把这些特征同时学进去,最后输出一个谁都不像的折中版本。
所以,这一步真正要回答的,不是“我以前写过什么”,而是“现在什么才应该被视为风格基线”。这件事至少要从三个层面来看:哪些特征属于当前成熟稿的稳定能力,哪些特征只是过去阶段的历史痕迹,哪些旧特征虽然不再主导,但仍然值得保留。
沿着这个思路,AI 做的就不再是泛泛的“风格总结”,而是模式提取。我要它回答的,也不是“你的文章像什么”,而是一组更具体的问题:我的开头通常怎么起?主问题会在文中被重新命名几次?判断句主要落在哪些位置?哪些文章会主动插入表格,表格承担的是什么论证功能?不同类型文章的结尾分别怎么收?
最后得到的,不是一句抽象评价,而是一组可以比较的模式差异:
| 模式维度 | 早期(2014-2019) | 中期(2020-2023) | 近期(2024-2025) |
|---|---|---|---|
| 开头方式 | 定义或经验直起 | 总论或框架导入 | 观察、实践、版本切入 |
| 结构推进 | 清单和列表居多 | 分层标题开始稳定 | 问题命名、分层拆解、判断收束协同 |
| 判断句位置 | 分散出现 | 以段末为主 | 段末与节末稳定配合 |
| 段落密度 | 偏碎,短段较多 | 逐渐加长 | 长段推进更稳定 |
| 结尾策略 | 开放感想较多 | 有压缩但不稳定 | 压缩判断或开放邀请二选一 |
这张表的价值不在于“打分”,而在于帮助我确认写作基线应该落在哪个阶段。对我来说,答案显然是 2024-2025;但这并不意味着前两个阶段毫无价值。早期那种直接表态的劲道,中期那种主动命名概念的能力,仍然值得保留。真正要做的,不是忠实复刻全部历史,而是把有效特征重新编排成一个今天还能工作的系统。
换句话说,我们不是在归档个人风格,而是在筛选哪些经验值得被工程化。
模式提取做完之后,真正难的部分才刚开始。因为观察结果本身并不能直接拿来用。你可以说“Phodal 的文章通常从具体观察切入”,但这还不是一条可以指导 AI 写作的规则。Skill 需要的不是描述句,而是执行句。
因此,下一步要做的,是把“观察”改写成“规则”。
比如,“文章常常从具体观察切入”,最后会被压缩成这样一条要求:开头必须从真实场景切入,可选现实冲突式、实践切入式、定义缺口式三种方式,并且必须在前三段内建立主问题。再比如,“判断句通常放在段末”,会被转换成:每个大章节至少保留一句强结论句,优先放在段末或节末,用来锁住这一段的理解。
这一步看起来像格式整理,实际上是整个过程中最关键的认知转变。好的 Skill 不是写作经验的原样存档,而是写作经验的工程化提炼。它不需要复现你所有细枝末节的习惯,只需要保留那些真正决定输出质量的关键决策点。
在这个过程中,我最后留下来的几条核心规则,大概最能说明问题。
第一条是“问题递进”。分析文章之后,我才更明确地意识到,自己的主问题通常不会只在开头出现一次,而是会在不同层级被反复重命名。先是现象层的问题:最近发生了什么,哪里不对劲;然后是工程层的问题:真正卡住交付和理解的瓶颈是什么;接着进入机制层:系统为什么会以这种方式运作,代价从哪里来;最后再压缩成决策层的问题:接下来应该怎么做。这不是修辞上的重复,而是一种让论证不断聚焦的推进机制。
第二条是“判断句的位置”。很多人会把判断力理解成观点本身,但对长文来说,判断力同样体现在你把判断放在哪里。我的文章里,真正起到收束作用的句子,大多都在段末或节末,而且句式也相对稳定,比如“换句话说,……”“这意味着,……”这类句子不是为了造金句,它们真正做的,是把一段信息重新压缩回主问题。
第三条是“原型先行”。分析完几十篇长文之后,我发现自己的文章虽然主题跨度不小,但结构上基本落在几种稳定原型里:趋势判断型、工程方法论型、项目复盘型、协议或框架解释型、产品或版本发布型、个人反思型。原型一旦确定,开头怎么起、正文怎么拆、结尾怎么收,很多决策就会跟着确定。选原型不是写作前的准备动作,它本身就是一次高价值的结构判断。
第四条是“量化锚点”。回头看我自己最有效的段落,几乎都有一个具体锚点在支撑它:项目名、版本变化、时间差、代码规模、工作量比例。如果没有这些东西,判断句就很容易滑向空泛。所以,Skill 最后保留的规则也很直接:每个关键判断尽量挂一个可验证的锚点;如果没有数字,至少给出明确的比较关系和上下文。
这些规则放在一起,其实已经说明了 Skill 的真实角色。它不是替作者生成判断,而是在作者必须做选择的那些位置上,提供一条稳定的决策轨道。
做到这里,我拿到的已经不是一段更长的 Prompt,而是一个目录结构。
/phodal-writer/
├── SKILL.md
└── references/
├── article_archetypes.md
├── writing_structure.md
├── style_core.md
├── expression_patterns.md
├── quality_checklist.md
├── revision_patterns.md
├── content_methodology.md
├── style_examples.md
└── style_evolution/
├── 2014-2019.md
├── 2020-2023.md
└── 2024-2025.md
这个结构看起来像文档管理,实际上对应的是一种更重要的执行逻辑:渐进式披露。SKILL.md
只保留每次写作都会用到的内容,比如风格定位、工作流、关键禁忌;更细的知识则按阶段拆进不同参考文件里。确定文章原型时,重点读
article_archetypes.md;开始拆结构时,读 writing_structure.md;进入风格校准和判断句密度时,读 style_core.md;文章写完之后,再进入
quality_checklist.md 做结构、风格、内容和作者性的四层检查。
这层拆分的意义,不只是省 token。更重要的是,它让每一种信息都只在最需要它的时候出现。写作原本就是一个阶段化过程,不同阶段关注的决策完全不同。如果把风格定义、结构模板、表达细节、质检规则全部塞进一个文件,AI 虽然“看到了全部”,但并不知道当前应该优先执行什么。
所以,这里真正值得强调的,并不是目录好不好看,而是 Skill 的组织方式本身就在表达一个判断:能力封装不只是把知识放进去,还要把知识按使用时机组织出来。Prompt 更像一次性交付,Skill 更像一套可以被重复加载的运行时结构。当目录结构开始决定 agent 在什么阶段读取什么知识时,它就已经不再是提示词,而是一个轻量的能力系统。
到这里,验证标准其实已经很清楚了。一个写作 Skill 不应该只停留在说明文档里,它必须能反过来生成一篇结构、节奏和判断都成立的文章。这篇文章本身,就是这个标准的一次测试。
它采用的是工程方法论型原型,开头从实践冲突切入,中段完成问题重命名,后面依次展开模式提取、规则转译和结构设计,最后再把讨论收束到“经验封装”这个更大的命题上。换句话说,Skill 是否有效,不看它解释得多漂亮,而看它能不能持续产出结果。它如果只能说明自己,却不能稳定地生成文章,那它仍然只是一个概念,而不是能力。
如果把视角从写作再往外拉一点,这件事真正重要的地方,并不只在“AI 学会了我的写作风格”,而在于它给出了一种更一般的知识封装方法。Prompt 解决的是“这一轮怎么做”,Skill 解决的是“以后谁来都能按同一套规则做”。
在这个案例里,我前后一周左右做样本整理、模式提取、规则提炼和目录组织,最后产出的不再是一份一次性提示词,而是一个可以被反复加载的写作系统。/phodal-writer 对我来说,不只是一个写作实验,而是一个更具体的判断:当个人经验第一次被封装成 Skill,AI 放大的就不再只是生成速度,而是经验本身的可迁移性。
围观我的Github Idea墙, 也许,你会遇到心仪的项目