关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
AIGC 领域的最新工具、开源项目以及行业大事件
AIGC 领域的最新工具、开源项目以及行业大事件
物种级具身智能的第二块拼图来自于东方,除了大语言模型的第一块拼图,类似Helix的端到端的训练框架的第三块拼图,中间缺失的一块拼图是带有东方智慧,道法自然的钱学森老前辈的思维科学,它可以被用来实现认知和情绪决策的大脑。
我们把具身智能的发展,划分为三个阶段。遥控表演级的、能独立完成真实环境任务的工种级的、能像人类一样让文明演进的物种级的。
现在我们处在1.5,现有具身智能,能在较为理想的环境中完成任务,但在变化环境中会失效,从1.5到2 我们就需要认知的大脑。一个自然的思路是,把类似DeepSeek的大模型(第一块拼图),作为具身智能的认知的大脑和第三块拼图Helix训练框架相结合,但是单纯直接使用大模型是不够的,现在世界上所有的AI,在被训练或设置完后,都会直觉性的进行反应,我们称之为底层的运算。
如果只有底层的运算,无论行为、思维、表达,在长期观察下都会和人有差距,没有“灵魂感”。思维工程效仿人类,赋予了AI眼、耳、鼻、舌、身、意的感知流结构,一旦有了感知流结构,AI能把自身的行为思维表达感知作为观照认知的课题,那么它就有了第二层的运算,比如思考我有没有成功地说服他,我为什么没有说服他,我应该怎么说服如此固执的人等等,这些都是第二层的运算。
第二层的运算,会反过来干预第一层的行为思维和表达,我们很容易认同,有了第二层的运算,AI就会让人感觉更有灵魂、更加聪明,来自第二层的干预,如果影响决定了行为,就和helix分装的行为能力对上了,这就是第二块拼图。
连接第三块拼图的地方,这个结构很自然、很简洁,我们也会相信,无论有怎样的既有运算,第二层的反思一定会让系统变得更聪明,但难点在哪呢?第二层的运算容易出复杂问题,这是大模型无法直接求解的,此时四维科学的道法自然将第二次发挥作用。
别浪费时间学 AI 的奇技淫巧了,AI 适应人的速度远快于人适应 AI 的速度——只要具备结构化思维,用自然语言准确表达需求就够了。
这是纳瓦尔最近在播客里给出的建议,如果你读过《纳瓦尔宝典》应该很熟悉这个风格,记了几条,分享下:
怎么用 AI?
应该优先考虑你的效率,而不是 AI 的消耗。
比如没必要为了让 AI 理解清楚而花时间精心写 Prompt——一口气说出来、多对话几轮,让 AI 整理就好了。
比如为了确保质量,同一个问题同时问四个不同的 AI,异步看结果,让它们交叉验证,或者从回答最好的那个开始深入追问。
要不要付费?
要为所有最先进的模型付费。正确率 92% 的模型比 88% 的模型价值高出无数倍——现实世界中犯错的成本极高,多花几块钱换一个正确答案完全值得。
怎么用 AI 学习?
学习的手段从来不缺,稀缺的是学习的欲望。AI 是自学的完美工具——让它生成图表、类比和插图,不断追问基础问题,直到从最底层完全理解一个困难概念。
AI 带来的竞争变化?
人们只想要最好的东西,市场仍然会被头部应用垄断。坏消息是:你必须在某件事上做到最好才能赢。好消息是:你能做到最好的事情是无穷多的,你总能找到一个完美适合你的细分领域,在那里做到最好。Vibe Coding 让细分市场的商业逻辑成立了。
AI 是什么?
乔布斯说计算机是"心灵的自行车",纳瓦尔说 AI 是"心灵的摩托车"——速度更快、杠杆更大,但仍然需要人来驾驶、指引方向、踩油门和刹车。
如何克服 AI 焦虑?
很多人的 AI 焦虑源于不了解它是什么、怎么运作。焦虑的解药永远是行动——焦虑本质上是一种非特定的恐惧,你的大脑在告诉你该做点什么,但你不确定该做什么。
迎上去,搞清楚它是什么。这种对好奇心的追求会帮你消除焦虑,说不定还能帮你发现让自己更有生产力、更快乐、更成功的事。
这是纳瓦尔最近在播客里给出的建议,如果你读过《纳瓦尔宝典》应该很熟悉这个风格,记了几条,分享下:
怎么用 AI?
应该优先考虑你的效率,而不是 AI 的消耗。
比如没必要为了让 AI 理解清楚而花时间精心写 Prompt——一口气说出来、多对话几轮,让 AI 整理就好了。
比如为了确保质量,同一个问题同时问四个不同的 AI,异步看结果,让它们交叉验证,或者从回答最好的那个开始深入追问。
要不要付费?
要为所有最先进的模型付费。正确率 92% 的模型比 88% 的模型价值高出无数倍——现实世界中犯错的成本极高,多花几块钱换一个正确答案完全值得。
怎么用 AI 学习?
学习的手段从来不缺,稀缺的是学习的欲望。AI 是自学的完美工具——让它生成图表、类比和插图,不断追问基础问题,直到从最底层完全理解一个困难概念。
AI 带来的竞争变化?
人们只想要最好的东西,市场仍然会被头部应用垄断。坏消息是:你必须在某件事上做到最好才能赢。好消息是:你能做到最好的事情是无穷多的,你总能找到一个完美适合你的细分领域,在那里做到最好。Vibe Coding 让细分市场的商业逻辑成立了。
AI 是什么?
乔布斯说计算机是"心灵的自行车",纳瓦尔说 AI 是"心灵的摩托车"——速度更快、杠杆更大,但仍然需要人来驾驶、指引方向、踩油门和刹车。
如何克服 AI 焦虑?
很多人的 AI 焦虑源于不了解它是什么、怎么运作。焦虑的解药永远是行动——焦虑本质上是一种非特定的恐惧,你的大脑在告诉你该做点什么,但你不确定该做什么。
迎上去,搞清楚它是什么。这种对好奇心的追求会帮你消除焦虑,说不定还能帮你发现让自己更有生产力、更快乐、更成功的事。
1. 视频文案提取
把视频截图或者视频链接丢进去,
直接说:提取视频文案。
做短视频的人会发现,
能省掉大量整理时间。
2. 自动生成任务
元宝可以“建任务”。
比如:
每天推送新闻
每天给你一个选
相当于多了个AI秘书。
3. 会议代参
可以托管腾讯会议。
不想听完整场会议的时候,
让AI进去听,结束后给你总结。
4. 长文速读
把一篇很长的文章丢进去:
让它输出
3个核心观点
5条关键信息
阅读效率会高很多。
5. 内容改写
把一段文字丢进去:
改写成推文 / 短视频文案 / 小红书风格。
做内容的人会经常用到。
6. 选生成
直接问:
给我20个关于XX的选。
很多自媒体人用这个来解决选焦虑。
7. 这里素材
把一个爆款帖子丢进去:
让它总结这里高赞观点。
经常能挖到新的内容素材。
很多人觉得元宝很弱鸡,
其实只是
还没找到适合的场景而已。
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024
1. 📢 AI探索指南
AIGC 领域的最新工具、开源项目以及行业大事件,AIGC人工智能、思维方式、知识拓展,能力提升等。
2. 📢 🦞OpenClaw小龙虾
分享OpenClaw🦞最新玩法、技巧、经验、观点等。
3. 📢 优质「资源」收藏夹
收藏高质量书籍、资料、资源,帮助你获取优质资源。
4. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。
5. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。
6. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。
7. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。
8. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;
9. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识
10. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。
AIGC 领域的最新工具、开源项目以及行业大事件,AIGC人工智能、思维方式、知识拓展,能力提升等。
2. 📢 🦞OpenClaw小龙虾
分享OpenClaw🦞最新玩法、技巧、经验、观点等。
3. 📢 优质「资源」收藏夹
收藏高质量书籍、资料、资源,帮助你获取优质资源。
4. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。
5. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。
6. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。
7. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。
8. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;
9. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识
10. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。
今天最有意思的事是 Claude Code 源码泄露,算是 A 厂最大的一次开源了
各种隐藏功能已经有很多人在聊了,简单过一下:AI 宠物 Buddy、24 小时主动助手 Kairos、闲置时自动整理记忆的 Auto-Dream、后台常驻的 Daemon 模式、跨设备传送会话、云端 Bug 舰队审代码。
我更好奇的是另一个问题: Claude Code 比其他同类工具优秀在哪里?
花了半天时间,查资料,看架构,和 AI 对话,到现在砍得越来越兴奋。它工程设计值得每个做 Agent 的团队学习。下面是我的七个总结:
1 prompt 每次都在变,根据场景实时拼装。
大部分 Agent 产品的 prompt 就是一大段固定文本。Claude Code 有个函数像流水线一样工作:先拼固定模块(身份、规范、行为准则、工具规则、语气),再根据当前状态加料(记忆、环境、语言、连了哪些插件、开没开精简模式)。
同一个用户前后两次对话,喂给模型的指令完全不同。而且这个拼装顺序是精心设计过的,前半段稳定的内容能被缓存,后半段会变的内容放后面,这样每天几万次请求能省下大量 token 费用。写 prompt 的时候考虑缓存节省 token,这个意识很多团队还没有。
2 一套写死的“不要做清单”
用过别的 coding agent 会发现让它改个 bug 它顺手重构半个文件,让它测一下它说"通过了"但根本没跑。CC 为了管住了这些毛病,逐条列好不要做清单:不加用户没要求的功能、不过度抽象、不瞎重构、不乱加注释、先读代码再改代码、不轻易建新文件、方法失败了先诊断再换策略、结果如实汇报不能假装测过了。
3 六个 Agent 分工,做事的、查事的、规划的权限完全隔开
至少六个内建角色各司其职。Explore Agent 只能读文件,连创建文件都不行。Plan Agent 也只能读,只管理解需求、分析架构、输出计划。Verification Agent 是"想尽办法做边界测试":强制跑 build,前端改动要验页面,后端要实测响应。
4 为防止工具调用错误,设立一条安检线
模型想调一个工具,中间要过好几道关卡:先校验输入对不对,再预判这个操作有没有风险,然后走权限审批,全部通过了才真正执行。执行完还有后续检查,失败了有专门的兜底逻辑。
还有个 Hook 机制,能在执行前改写输入、直接拒绝、补充上下文,但 Hook 放行不能绕过系统级的拒绝规则。很多 agent 翻车就是模型用错了工具直接执行了,比如一条 sed 命令正则写错整个文件就废了。这条线在动手前把风险拦住了。
5 子 Agent 调度的省钱策略
很多 Agent 系统第一天跑得挺好,跑一百天就一堆泄漏,一个子任务从触发到完成要走十几步:解析输入、判断类型、构造 prompt、组装工具、创建上下文、注册插件、进入执行循环、记录日志、清理资源。
CC 的子任务会继承主线程的 prompt 前缀,目的是复用缓存少烧 token。执行完还会自动清理 shell 进程、MCP 连接、临时状态,不留垃圾。
6 三套扩展机制,重点是模型自己知道该用什么
Skill、Plugin、MCP 三套扩展能力装上去之后,都会通过各种通道告诉模型"我现在多了什么能力、什么场景该用"。
很多平台也有插件市场,装完之后模型根本不知道有这回事。Claude Code 把清单和说明书都摆在模型看得见的地方,Skill 按需加载,MCP 指令按连接状态注入,需要什么上什么,不需要的不占空间。
7 从目录结构看,这就是一个小型操作系统
入口层、提示词系统、工具定义、运行时服务、命令系统、协调器、记忆系统、插件、Hook、任务系统。
四个入口:CLI、初始化流程、MCP 模式、SDK。同一套内核跑四种界面。大部分开源 Agent 就是 main 加几个 tool 文件,这个复杂度完全不在一个级别。
拿模型做产品的朋友可以参考上面方法,用工程系统设计弥补模型的不可控。模型会偷懒,就把规矩写死。模型会用错工具,就在中间加安检。模型自己验不好自己的活,就拆一个专门找茬的角色出来。上下文会爆,就从 prompt 拼装到子任务调度每一层都在省。
谁先把这些层补上,谁的产品手感就会好一个台阶。
各种隐藏功能已经有很多人在聊了,简单过一下:AI 宠物 Buddy、24 小时主动助手 Kairos、闲置时自动整理记忆的 Auto-Dream、后台常驻的 Daemon 模式、跨设备传送会话、云端 Bug 舰队审代码。
我更好奇的是另一个问题: Claude Code 比其他同类工具优秀在哪里?
花了半天时间,查资料,看架构,和 AI 对话,到现在砍得越来越兴奋。它工程设计值得每个做 Agent 的团队学习。下面是我的七个总结:
1 prompt 每次都在变,根据场景实时拼装。
大部分 Agent 产品的 prompt 就是一大段固定文本。Claude Code 有个函数像流水线一样工作:先拼固定模块(身份、规范、行为准则、工具规则、语气),再根据当前状态加料(记忆、环境、语言、连了哪些插件、开没开精简模式)。
同一个用户前后两次对话,喂给模型的指令完全不同。而且这个拼装顺序是精心设计过的,前半段稳定的内容能被缓存,后半段会变的内容放后面,这样每天几万次请求能省下大量 token 费用。写 prompt 的时候考虑缓存节省 token,这个意识很多团队还没有。
2 一套写死的“不要做清单”
用过别的 coding agent 会发现让它改个 bug 它顺手重构半个文件,让它测一下它说"通过了"但根本没跑。CC 为了管住了这些毛病,逐条列好不要做清单:不加用户没要求的功能、不过度抽象、不瞎重构、不乱加注释、先读代码再改代码、不轻易建新文件、方法失败了先诊断再换策略、结果如实汇报不能假装测过了。
3 六个 Agent 分工,做事的、查事的、规划的权限完全隔开
至少六个内建角色各司其职。Explore Agent 只能读文件,连创建文件都不行。Plan Agent 也只能读,只管理解需求、分析架构、输出计划。Verification Agent 是"想尽办法做边界测试":强制跑 build,前端改动要验页面,后端要实测响应。
4 为防止工具调用错误,设立一条安检线
模型想调一个工具,中间要过好几道关卡:先校验输入对不对,再预判这个操作有没有风险,然后走权限审批,全部通过了才真正执行。执行完还有后续检查,失败了有专门的兜底逻辑。
还有个 Hook 机制,能在执行前改写输入、直接拒绝、补充上下文,但 Hook 放行不能绕过系统级的拒绝规则。很多 agent 翻车就是模型用错了工具直接执行了,比如一条 sed 命令正则写错整个文件就废了。这条线在动手前把风险拦住了。
5 子 Agent 调度的省钱策略
很多 Agent 系统第一天跑得挺好,跑一百天就一堆泄漏,一个子任务从触发到完成要走十几步:解析输入、判断类型、构造 prompt、组装工具、创建上下文、注册插件、进入执行循环、记录日志、清理资源。
CC 的子任务会继承主线程的 prompt 前缀,目的是复用缓存少烧 token。执行完还会自动清理 shell 进程、MCP 连接、临时状态,不留垃圾。
6 三套扩展机制,重点是模型自己知道该用什么
Skill、Plugin、MCP 三套扩展能力装上去之后,都会通过各种通道告诉模型"我现在多了什么能力、什么场景该用"。
很多平台也有插件市场,装完之后模型根本不知道有这回事。Claude Code 把清单和说明书都摆在模型看得见的地方,Skill 按需加载,MCP 指令按连接状态注入,需要什么上什么,不需要的不占空间。
7 从目录结构看,这就是一个小型操作系统
入口层、提示词系统、工具定义、运行时服务、命令系统、协调器、记忆系统、插件、Hook、任务系统。
四个入口:CLI、初始化流程、MCP 模式、SDK。同一套内核跑四种界面。大部分开源 Agent 就是 main 加几个 tool 文件,这个复杂度完全不在一个级别。
拿模型做产品的朋友可以参考上面方法,用工程系统设计弥补模型的不可控。模型会偷懒,就把规矩写死。模型会用错工具,就在中间加安检。模型自己验不好自己的活,就拆一个专门找茬的角色出来。上下文会爆,就从 prompt 拼装到子任务调度每一层都在省。
谁先把这些层补上,谁的产品手感就会好一个台阶。
这份橙皮书是我和Claude Code花了两个多月一起写的实战手册,面向想用AI编程但不知道从哪开始的人。10章,从安装到独立做出一个完整产品。
里面有什么:
• 核心工作流拆解(Plan/Auto模式、权限管理)
• CLAUDE.md写法——怎么给AI一张项目地图
• Skills、Hooks、MCP等扩展能力的实战用法
• 多Agent并行协作的完整机制
• Computer Use和Voice Mode等最新能力
• 一章完整的从零到上线产品实战
信息源主要是Claude官方文档、CC之父Boris的分享、吴恩达的Claude Code课程,加上我自己用CC做了十几个产品的经验。内容更新到2026年3月底。
和AI协作写的,内容量大,难免有幻觉。发现不准确的欢迎指正,我会持续更新。
下载链接🔗:https://my.feishu.cn/wiki/JK1WwrRgJiYfRok7YxxceS5qn1J?from=from_copylink
刚看完SemiAnalysis的创始人Dylan Patel的访谈,学习了不少干货,给大家分享一下:
1. 英伟达之所以要花200亿美元收购Groq,是因为推理端的护城河崩了,要重新搭。
2. 英伟达的竞争对手很多,但老黄最怕的其实是华为。
3. 中国的芯片不是最先进的,但半导体供应链是全球最全的。
4. 今年AI的收入会超过1000亿美元,OpenAI贡献450-500亿,Anthropic贡献350-400亿,剩下的由谷歌搞定。现在对AI的投入很大,但只要模型能力还一直提升,就不会崩。
5. OpenAI,Anthropic,谷歌的模型还有不少肉眼可见的提升空间。
详细内容请看视频。
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024
1. 英伟达之所以要花200亿美元收购Groq,是因为推理端的护城河崩了,要重新搭。
2. 英伟达的竞争对手很多,但老黄最怕的其实是华为。
3. 中国的芯片不是最先进的,但半导体供应链是全球最全的。
4. 今年AI的收入会超过1000亿美元,OpenAI贡献450-500亿,Anthropic贡献350-400亿,剩下的由谷歌搞定。现在对AI的投入很大,但只要模型能力还一直提升,就不会崩。
5. OpenAI,Anthropic,谷歌的模型还有不少肉眼可见的提升空间。
详细内容请看视频。
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024
爸妈从张家口来珠海长住,行李箱里塞了一袋莜面。
这袋莜面在我家厨房碰了壁。
按老家的规矩,莜面得大火蒸足8分钟才筋道。可在珠海,8分钟蒸出来的软塌塌没嚼劲。我妈换了水,我爸换了锅,折腾了三天,锅里的莜面还是不对味。
我提议:用AI查查。
输入"北方蒸莜面没事,为啥到南方就蒸不好?"答案几秒钟就跳出来:
张家口市区海拔约750米,水沸点约97℃;珠海市区海拔仅20米,水沸点接近100℃。沸点高,食物熟得快,时间自然能缩短。
我妈将信将疑,试了3分钟。揭开锅盖时,那股熟悉的莜面香气终于飘了出来。
她尝了一口,说:"对味了。"
---
这件小事让我想明白一件事:
AI对长辈来说,不是什么高科技,而是能补上"经验差"的帮手。
什么叫经验差?
爸妈在老家生活了几十年,攒了一肚子"正确做法"——蒸莜面8分钟、降压药早饭前吃、这个季节该穿多少。这些经验在老家验证过无数次,闭着眼都不会错。
但换了个环境,经验突然就失灵了。
海拔变了,沸点变了,蒸的时间得改;医生换了,药名变了,吃法得重新记;手机里冒出个陌生号码发中奖短信,老家没见过这阵仗,不知道该不该信。
他们不是落后,是经验过期了。
而AI干的,就是帮他们把过期经验更新到当前版本。
---
我后来想了一圈,AI能帮长辈做的事,其实就几类:
补地理差。
北方人到了南方不懂回南天怎么防潮,南方人到了北方不懂暖气怎么开不干燥,出国不知道当地小费怎么给。这些事,年轻人查查小红书就懂了,但长辈不会主动查,也不知道该查什么。
AI的好处是:不用查,问一句就行。
补记忆差。
我妈降压药和降糖药老记混,有时候吃完想不起来刚才吃的是哪一种。AI可以设语音提醒:"早上七点,吃降压药一片,白色小瓶。"到点就响,不用记。
我爸在公园看到不认识的植物,拍张照发给AI,秒回:"这是琴叶珊瑚,有毒,别碰。"
补信息差。
朋友圈里转的"喝醋软化血管""晚上吃姜等于吃砒霜",AI一分析就知道是谣言,还能解释为什么错。陌生号码发来的中奖短信,复制内容让AI判断,是不是诈骗一目了然。
他们不是傻,是信息来源不靠谱。
AI干的,是帮他们过滤。
补技能差。
我妈想学用微信发红包,我教了三遍她还是记不住步骤。后来我把步骤发给AI,AI生成了一段语音教程,她听一遍就会了。
还有手机拍照、网上交电费、查医保余额,这些事年轻人觉得简单,但对长辈来说,每一步都是坎。AI能做的,是把坎铺平。
---
说到底,AI对长辈的价值,不是让他们"跟上时代",而是让他们在陌生环境里,也能过得像在老家一样从容。
那袋莜面后来吃完了。我妈说,下次让我爸从老家再带一袋。
我说行。
她说,这次蒸3分钟就够了。
我说我知道。
她笑了笑,说:"有AI在,比你还靠谱。"
这袋莜面在我家厨房碰了壁。
按老家的规矩,莜面得大火蒸足8分钟才筋道。可在珠海,8分钟蒸出来的软塌塌没嚼劲。我妈换了水,我爸换了锅,折腾了三天,锅里的莜面还是不对味。
我提议:用AI查查。
输入"北方蒸莜面没事,为啥到南方就蒸不好?"答案几秒钟就跳出来:
张家口市区海拔约750米,水沸点约97℃;珠海市区海拔仅20米,水沸点接近100℃。沸点高,食物熟得快,时间自然能缩短。
我妈将信将疑,试了3分钟。揭开锅盖时,那股熟悉的莜面香气终于飘了出来。
她尝了一口,说:"对味了。"
---
这件小事让我想明白一件事:
AI对长辈来说,不是什么高科技,而是能补上"经验差"的帮手。
什么叫经验差?
爸妈在老家生活了几十年,攒了一肚子"正确做法"——蒸莜面8分钟、降压药早饭前吃、这个季节该穿多少。这些经验在老家验证过无数次,闭着眼都不会错。
但换了个环境,经验突然就失灵了。
海拔变了,沸点变了,蒸的时间得改;医生换了,药名变了,吃法得重新记;手机里冒出个陌生号码发中奖短信,老家没见过这阵仗,不知道该不该信。
他们不是落后,是经验过期了。
而AI干的,就是帮他们把过期经验更新到当前版本。
---
我后来想了一圈,AI能帮长辈做的事,其实就几类:
补地理差。
北方人到了南方不懂回南天怎么防潮,南方人到了北方不懂暖气怎么开不干燥,出国不知道当地小费怎么给。这些事,年轻人查查小红书就懂了,但长辈不会主动查,也不知道该查什么。
AI的好处是:不用查,问一句就行。
补记忆差。
我妈降压药和降糖药老记混,有时候吃完想不起来刚才吃的是哪一种。AI可以设语音提醒:"早上七点,吃降压药一片,白色小瓶。"到点就响,不用记。
我爸在公园看到不认识的植物,拍张照发给AI,秒回:"这是琴叶珊瑚,有毒,别碰。"
补信息差。
朋友圈里转的"喝醋软化血管""晚上吃姜等于吃砒霜",AI一分析就知道是谣言,还能解释为什么错。陌生号码发来的中奖短信,复制内容让AI判断,是不是诈骗一目了然。
他们不是傻,是信息来源不靠谱。
AI干的,是帮他们过滤。
补技能差。
我妈想学用微信发红包,我教了三遍她还是记不住步骤。后来我把步骤发给AI,AI生成了一段语音教程,她听一遍就会了。
还有手机拍照、网上交电费、查医保余额,这些事年轻人觉得简单,但对长辈来说,每一步都是坎。AI能做的,是把坎铺平。
---
说到底,AI对长辈的价值,不是让他们"跟上时代",而是让他们在陌生环境里,也能过得像在老家一样从容。
那袋莜面后来吃完了。我妈说,下次让我爸从老家再带一袋。
我说行。
她说,这次蒸3分钟就够了。
我说我知道。
她笑了笑,说:"有AI在,比你还靠谱。"
Karpathy 昨天在推上回了 Python 之父 Guido 一句话:
LLM = CPU,Agent = 操作系统内核。
但他补了一个很关键的细节:
LLM 处理的数据单位不是字节,是 token。
这个操作系统的运行方式不是确定性的,而是统计性的。
这是一种底层计算的范式转移。
过去六十年,计算机的世界建立在字节上。
一个字符 8 个 bit,精确,确定,不会出错。你写一个 1,存进去就是 1,读出来还是 1。
整个互联网、所有软件、所有数据库,都建立在这种确定性上。
现在 LLM 来了。它的基本单位是 token,不是字节。
token 是模糊的,一个词可能是一个 token,也可能被拆成两个。
它的输出是概率性的,同一个输入跑两遍可能得到不同的结果。
这就像从牛顿力学进入量子力学。
精确让位于概率,确定让位于统计。
Karpathy 把 LLM 比作 CPU,Agent 比作操作系统内核。
如果顺着这个类比往下推:
传统计算机:CPU 处理字节 → 内核调度进程 → 操作系统服务用户
AI 时代:LLM 处理 token → Agent 编排任务 → AI OS 服务用户
底层的数据单位变了,上面的一切都得跟着变。
操作系统要重写,软件要重做,人和计算机的交互方式要重新设计。
与其说是对上一代的升级,不如说是彻底换了轨道。
字节的世界里,谁掌握更多的数据(字节)谁就赢。
token 的世界里,谁掌握更多的 token 谁就赢。
字节的时代属于互联网,token 的时代属于 Agent。
BYTE ERA ➤ TOKEN ERA
MWC展出的AI算力玩家的产品具象化一下吧。 平时都在机房里面堆着你们也不怎么看的到。 Nvidia,AMD,Supermicro,Giagbyte,Qualcomm(这是意外,高通all in搞推理了?头脑还是清醒的,知道下半场在哪里),联发科等等。 想起很久以前我天天跑机房的年代了,呆久点就得带耳塞啊。。。
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024
@aigc1024
OpenClaw小龙虾🦞专属频道
@openclaw1024
2025年12月份,大玩家 赌神附体,狂揽一个亿,可自行验证
永久网址
🏆全网广告费每月投入高达500万
🏆平台优势:
1️⃣ #电子真人0审核包出款、#反水无上限
2️⃣ #巨额无忧,每日提款不限额度不限次数
3️⃣
4️⃣ #不限ip、#免实名,无需绑手机号、信息安全有保障
🏆Y3 国际 全站封神榜
➡️ 8月13号 神秘玩家仅用300u爆奖140万u,成功提款1088888u
➡️ 8月16号 反水1700u仅用80u爆奖54万u,成功提款60万u
➡️ 10月10号 大哥在PG麻将胡了爆奖260万u,成功提款210万u
➡️ 12月6号 神秘盘总PA真人豪赢400万u,成功提款370万u
👑#反水无上限 日提无上限 日出千万
👑#每日存款彩金每日送,每笔存款加赠
🌐官网注册链接: y3867.com
💖 Y3国际专属客服:@Y3VIP8888
➡️ 双向用户点击: @Y3VIP777_bot
✅ 更多优惠活动关注福利频道: @Y3VIP678
😃 爆庄实录|3天狂揽1086万U😃 新客首存1000,豪提120万U😃 500一拉,PG实力兑现133万U💵 亿万储备金,大额无忧
🇭🇰 香港六合彩,特码 55 倍