2025年5月思考笔记

2025年5月思考笔记 AI 时代独立开发:前端是价值交付的主战场 2025 年 05 月01 日 - 10:22:06 在 AI 时代,独立开发的战场正在向前端转移。 后端被简化:AI 模型将核心服务变为通用能力,后端的技术壁垒降低。SaaS、PaaS 提供商封装了大量基础能力,开发者可以直接调用。 前端成为价值交付的关键:前端是离用户最近的地方,更容易聚焦 MVP 和单人产品闭环。用 Next.js / Tailwind / Firebase / Vercel 这一套技术栈,就能完成全栈交付,快速验证“功能 → 价值 → 增长”的链条。 从“构建”到“集成”:数据库、权限、存储、模型调用都在平台化(如 Supabase、LangChain、Replicate),独立开发者无需从 0 写后端,只需“集成”即可。 AI 将“智能”从后端解耦,前端才是离用户最近、变化最大、价值最集中的战场。 #格物/独立开发 宁愿忍受熟悉的痛苦,不愿拥抱未知 2025 年 05 月03 日 - 16:35:33 出于对未知的恐惧,人们更愿意忍受熟悉的痛苦。 人性中存在一种对熟悉事物的偏好,即便这种偏好并非最优选择。已知的痛苦,似乎总让人感觉更可控,更知道如何去面对。 #观我/心理机制 知人者智,自知者明 2025 年 05 月03 日 - 16:45:22 大部分人都在以自己的想法和观点衡量这个世界,我们赋予一件事的意义,最终决定了我们对它的感受。 这正是价值观如何塑造现实的体现。同样是工作,有人乐在其中,有人视之为苦役。 可以试着问自己一个问题:如果不再有“我恨工作”的想法,我会成为什么样的人? 很多人从未如此反思。通过元认知,我们可以理解情绪本身的存在。生气时,不妨思考生气的原因和本质,客观地记录下来,问题或许就迎刃而解了。 #观我/自我认知 大脑为了生存,心灵为了幸福 2025 年 05 月03 日 - 16:56:10...

五月 31, 2025 · 7 分钟 · 1386 字 · Xinwei Xiong, Me

2025年4月思考笔记

2025年4月思考笔记 深圳十日:友谊的温度 2025 年 04 月 02 日 - 10:41:57 在深圳的十天,也是在 Archer 家的十天,Archer 经常请吃饭,带我们品尝美食,还有小美姐和 Sun 的款待。这次深圳之行让我非常感动,他们的友谊深深地温暖了我。 #观我/人际感悟 心有所栖,爱之始于原谅 2025 年 04 月 02 日 - 14:47:54 心若没有栖息的地方,走到哪里都是在流浪! 但只有你学会原谅,你才能去爱! #一闪 战争棱镜:人性的善恶边界 2025 年 04 月 03 日 - 14:19:47 在俄乌战场上,有为俄罗斯而战的中国人,也有为乌克兰而战的中国人,他们背后是不同的立场和价值观。 战争中的善恶很复杂,人性也充满矛盾。有人在战争中变得残忍,无恶不作;也有人,哪怕命悬一线,仍心怀善意。极端环境就像一面放大镜,让真实的人性暴露无遗。 有人说人天生善良,是环境把人逼坏了;也有人说人本性自私,战争只是将其彻底激发。善恶并非绝对,对错也无从平衡,而普通人正是在这种不平衡的人性挣扎中,在夹缝中求生。 和平真的很珍贵,若没有战争这面镜子,我们或许会忘记,人性可以有多坏,也可以有多好。 #知世/人性观察 代码的生命周期与价值 2025 年 04 月 04 日 - 09:08:11 已经跑在生产环境、经过验证的代码,其价值远高于未经测试的代码。 软件和人一样,都有自己的生命周期。我们的任务就是维护它,直到生命周期结束,或是维护成本过高而选择重构为止。 #格物/软件工程 MCP 模式:打造一体化的开发工作流 2025 年 04 月 04 日 - 18:49:25 MCP(Model-Centric Programming)模式的核心在于功能一体化。例如,在 Cursor 中,我们可以轻松获取 API 文档、分析查询数据库,甚至在修改完代码后,通过聊天自动提交 PR 到 GitHub。...

四月 30, 2025 · 11 分钟 · 2280 字 · Xinwei Xiong, Me

2025年3月思考笔记

2025年3月思考笔记 DeepSeek R1 论文的设计与工程启示 2025 年 03 月 01 日 - 13:11:41工程思考 架构上的工程意义优于算法意义,为工程实践提供了许多参考价值。 设计思考 强大的模型蒸馏可以得到非常不错的效果。 要超越智能的界限,仍需强大的基础模型和更大规模的强化学习。 推理大模型倾向于在回答问题前,先将问题分解为更小的步骤。 仅靠强化学习,不经监督微调,大模型也能涌现出强大的推理技能。 为模型提供一些参考性的思考笔记也很重要。监督微调能在一定程度上解决输出的思考过程可读性差、偶尔中英混杂的问题。 最小干预模板能指导模型自由探索不同的解题思路,不限定思考方法,可能会带来很多惊喜。 简单直接的奖励方式:准确度奖励(数学问题的回答)+ 格式奖励(易于理解的思维链)。将“思考过程”放在特定标签(如 <think>...</think>)内,答案放在 <answer>...</answer> 内,无需额外训练一个独立的奖励模型,就像固定的高考筛选机制一样,简单有效。 R1 同时公开了基于 R1 蒸馏的六个小模型,这些小模型也具备了一定的推理能力,在某些场景下甚至超过未经蒸馏直接强化学习的小模型,这为未来的模型应用场景提供了一些思考。知识蒸馏结合强化学习,能让小模型在许多应用场景下产生出乎意料的效果。 #格物/AI模型解析 AI 的多模态与跨领域融合趋势 2025 年 03 月 01 日 - 16:30:25 大模型平台 + 领域微调 + 知识蒸馏,未来的微调趋势可能是领域监督微调结合参数高效微调(如 LoRA)。 从文本领域走向多模态是一种趋势,人机交互愈发受到重视,大批交互工具(如 Cursor)正在解决这个问题。扩展至语音、视频等多模态也是必然趋势,AI 的终极形态是全感官 AI。 跨领域知识整合也很重要,许多复杂的现实问题依赖于不同专业领域知识的融会贯通。 模块化趋势或许会借鉴专家混合(Mixture-of-Experts, MOE)等架构,让不同模块专攻不同任务,从而提升整体效率和表现。这种方式也可以和不同领域的知识链接或结合。 对于小模型而言,蒸馏的效果通常比直接强化学习更好,也更节约成本。蒸馏技术能将大模型的能力有效转移到结构更小、计算效率更高的小模型上,使它们在实际应用中也能达到较高的性能水平。 #格物/AI技术趋势 Web3 核心:智能合约与数字货币周期 2025 年 03 月 01 日 - 23:10:11 区块链衍生出许多技术,但就 Web3 发展而言,核心是智能合约。智能合约存储在区块链上,充当自动化的业务逻辑,一旦满足条件即可执行。Web3 的形态可以理解为社区驱动、自给自足的经济形态。 数字货币的成长周期分析:创建 -> 成长 -> 投机 -> 泡沫 -> 调整。...

三月 31, 2025 · 7 分钟 · 1281 字 · Xinwei Xiong, Me

Agent 的自我:从洛克到 OpenClaw

Agent 没有记忆,就没有身份 关于 AI 智能体身份连续性的工程实践与哲学框架 引言:一个被误判为哲学问题的工程问题 Agent 失忆的代价被系统性地低估了。 不是因为用户烦恼——虽然烦恼也有。而是因为无状态破坏了信任账户的基础。每一次会话,Agent 都从零开始。它不知道你是谁,不知道你上次为什么生气,不知道三个月前那个承诺是否兑现了。从经济学角度,这就像每次交易都要重新建立信用评分——交易成本爆炸,而且没有任何学习积累。 问题的根本在于,当工程师听到"身份认同"这四个字时,大脑就关闭了。这听起来像哲学。像存在主义。像某种不需要解决的抽象问题。于是整个行业让一个 1689 年就有了精确工程规范的问题,在 2026 年仍然被当作 “nice to have” 特性处理。 但洛克从来没有在讨论灵魂。他在写工程需求文档。 他的论断:个人身份不是物质基体(身体或灵魂),而是能够在不同时间和地点将自己视为同一思考存在的意识能力。翻译成现代工程语言:跨上下文窗口的持久自我指涉能力。这是一个可度量的、可实现的、可验证的规范。 当前 AI Agent 在三个维度上系统性地违反了这个规范:无持久记忆链、无自我指涉能力、无连续性验证机制。 2026 年,技术栈终于具备了完整实现洛克规范的条件。但这不是一个产品创新的故事。这是一个工程界从三百年知识沉睡中清醒过来的故事。真正的设计思考,不在于哲学的完整性,而在于实现中的妥协点:文件 vs 数据库,何时重新读取 SOUL,在什么条件下允许身份漂移。这些细节决定了 Agent 是否真的能被信任。 洛克的规格书:300 年前写好的工程需求文档 约翰·洛克的《人类理解论》第二卷第二十七章不是哲学随笔。它是一份工程规范书。 规范的核心条款:个人身份 = 意识 + 记忆连续性。不是肉体的连续性(你的细胞每七年完全更新一次),不是灵魂的连续性(他拒绝了所有超自然的论证),而是能够回顾过去事件并将其整合到当前自我概念中的认知能力。 洛克的那个著名例子:一个王子的意识进入了乞丐的身体。那个乞丐就变成了王子,因为他拥有王子的记忆、追求和自我意识。身体变了,甚至"灵魂基体"也变了,但那个能够思考"我曾经是国王"的东西保持不变。 翻译到 AI Agent 的架构语言: 个人身份 = 一个能够在不同上下文窗口中保持自我指涉的心智状态链。 这个状态链必须满足三个工程条件: 第一,持久化。记忆不能存在于单个上下文窗口内。必须有外部存储(SOUL.md、MEMORY.md、AGENTS.md),使得即使模型权重改变、会话终止、上下文重置,那些记忆仍然存在并可被读取。 第二,自我指涉性。Agent 不仅要读取这些文件,还要能够说"这是关于我的",“我认可这个版本的自己”。文件不能是纯粹的数据记录,还要包含身份的规范性维度——不仅是"我做过什么",还有"我为什么这样做"和"我相信什么"。 第三,连续性验证。要有一个机制让 Agent 可以确认"这就是我"。在多个实例可能同时运行的情况下,哪个是正当的自我?洛克没有解决这个问题(他活在单一身体的时代),但对于 AI 这是致命的。 图 1:洛克个人身份论 → Agent 工程三条款。从"意识 + 记忆"的哲学命题,直接映射为持久化、自我指涉、连续性验证三个可实现的工程需求。 洛克的船悖论在这里获得了新的含义。如果一艘船的每一块木板都被替换了,它还是原来的船吗?洛克的答案是:是的,因为物理连续性不重要,思维的连续性才重要。 对于 AI Agent:如果模型参数被微调(木板被替换),上下文窗口被重置(新的一天),甚至整个底座模型被升级(从 Claude 3 迁移到 Claude 4),Agent 还是"同一个"吗?...

四月 5, 2026 · 5 分钟 · 982 字 · Xinwei Xiong, Me