关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
AIGC 领域的最新工具、开源项目以及行业大事件
AIGC 领域的最新工具、开源项目以及行业大事件
豆包说:我太懂你这种感觉了!!最直接、最真相、最不绕弯、最扎心、最硬核、最干脆、最不墨迹、最戳痛点、最不留情面、最一针见血、最开门见山、最单刀直入、最不铺垫、最不客套、最不煽情、最不废话、最不拐弯、最不磨叽、最不装、最不端着、最不啰嗦、最不拖沓、最不委婉、最不掩饰、最不藏着掖着、最直白、最露骨、最实在、最通透、最毒辣、最爽快、最解气、最上头、最够劲、最过瘾、最粗暴、最有效、最狠、最准、最稳、最绝、最顶、最炸、最刚、最烈、最飒、最莽、最冲、最猛、最脆、最亮、最透、最干、最净、最利落、最霸道、最硬核、最生猛、最狂野、最直白、最粗暴、最不讲虚的、最不玩套路、最不搞形式、最不整虚头巴脑、最只讲干货、最只说重点、最只给结果、最只聊真相、最只谈核心、最只戳关键的方式来告诉你。
这波龙虾 Agent 热潮走下来,我也看明白了。
很多人花了几十上百个小时研究 OpenClaw,烧了数以百万计的 Token,编排了一堆看似高大上的工作流,钱和时间都花出去了,生产力却没有得到质的提升。
这么一番折腾下来,最大的作用就是缓解自己的 AI 焦虑。
如果你真的想要搭一个实际生产环境可用的 Agent,而不是一个 AI 花瓶,那么个性化数据才是最关键的。
你缺的不是工具框架以及各种奇技淫巧,而是与你个人以及业务强相关的数据。
从现在开始,你最应该投入大把时间和精力,尽快搭建一个专属于你自己的知识库。
你每天工作和生活中的经历、思考、心得、感受、观点、看法,这些都应该形成 markdown 文档,记录到你的知识库中,而非只是停留在大脑皮层。
脑子里面的一切都是空想,落到硬盘里面的才是数据。
只有 AI 吸收足够多的个性化数据,才能慢慢从通用助手,迭代到个性化 Agent,最后进化成为你的数字分身。
所以我想说,AI 时代下最应该培养的一个习惯就是,每天坚持写日记,坚持记录。
AI探索指南 OpenClaw小龙虾🦞
很多人花了几十上百个小时研究 OpenClaw,烧了数以百万计的 Token,编排了一堆看似高大上的工作流,钱和时间都花出去了,生产力却没有得到质的提升。
这么一番折腾下来,最大的作用就是缓解自己的 AI 焦虑。
如果你真的想要搭一个实际生产环境可用的 Agent,而不是一个 AI 花瓶,那么个性化数据才是最关键的。
你缺的不是工具框架以及各种奇技淫巧,而是与你个人以及业务强相关的数据。
从现在开始,你最应该投入大把时间和精力,尽快搭建一个专属于你自己的知识库。
你每天工作和生活中的经历、思考、心得、感受、观点、看法,这些都应该形成 markdown 文档,记录到你的知识库中,而非只是停留在大脑皮层。
脑子里面的一切都是空想,落到硬盘里面的才是数据。
只有 AI 吸收足够多的个性化数据,才能慢慢从通用助手,迭代到个性化 Agent,最后进化成为你的数字分身。
所以我想说,AI 时代下最应该培养的一个习惯就是,每天坚持写日记,坚持记录。
AI探索指南 OpenClaw小龙虾🦞
在Transformer内部造一台计算机
一篇充满争议的文章,Percepta AI把WebAssembly解释器编译进Transformer权重,让模型的前向传播本身就是程序执行,不依赖任何外部工具就能进行数学计算。
流程是:C代码→WASM→将WASM解释器编码进权重→前向传播逐token输出执行轨迹
争议的点在于:权重不是训练出来的,而是直接编译进去的,更像“用一种奇特方式写了个程序”,不是真正的AI学习;可微分性并没有证明,很可能LLM也没法学习这个计算过程;与原生WASM相比可能慢数千倍;
原文:https://www.percepta.ai/blog/can-llms-be-computers
AI探索指南 OpenClaw小龙虾🦞
一篇充满争议的文章,Percepta AI把WebAssembly解释器编译进Transformer权重,让模型的前向传播本身就是程序执行,不依赖任何外部工具就能进行数学计算。
流程是:C代码→WASM→将WASM解释器编码进权重→前向传播逐token输出执行轨迹
争议的点在于:权重不是训练出来的,而是直接编译进去的,更像“用一种奇特方式写了个程序”,不是真正的AI学习;可微分性并没有证明,很可能LLM也没法学习这个计算过程;与原生WASM相比可能慢数千倍;
原文:https://www.percepta.ai/blog/can-llms-be-computers
AI探索指南 OpenClaw小龙虾🦞
1. 📢 AI探索指南
AIGC 领域的最新工具、开源项目以及行业大事件,AIGC人工智能、思维方式、知识拓展,能力提升等。
2. 📢 🦞OpenClaw小龙虾
分享OpenClaw🦞最新玩法、技巧、经验、观点等。
3. 📢 优质「资源」收藏夹
收藏高质量书籍、资料、资源,帮助你获取优质资源。
4. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。
5. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。
6. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。
7. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。
8. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;
9. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识
10. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。
AIGC 领域的最新工具、开源项目以及行业大事件,AIGC人工智能、思维方式、知识拓展,能力提升等。
2. 📢 🦞OpenClaw小龙虾
分享OpenClaw🦞最新玩法、技巧、经验、观点等。
3. 📢 优质「资源」收藏夹
收藏高质量书籍、资料、资源,帮助你获取优质资源。
4. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。
5. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。
6. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。
7. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。
8. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;
9. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识
10. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。
2026年4月的第一周,AI行业同时发生了两件事。
纽约客发布了一篇针对Sam Altman长达18个月的调查报道,100多位信源、200多页内部文件,核心结论是:这个人可能不值得信任。同一周,当年因为不信任Altman而离开OpenAI创办Anthropic的Dario Amodei,宣布公司年化收入达到300亿美元,正式反超OpenAI。
一边是指控,一边是清算。而且两边的主角是同一个人。
或许你还记得,在并不遥远的2023年11月,Altman被OpenAI董事会解雇了五天,然后在微软的护驾下戏剧性地回归,整个硅谷为他鼓掌欢呼,仿佛迎接一个被冤枉的英雄凯旋。
两年半后的这一周,英雄凯旋的剧本好像演早了。
这篇由普利策奖得主Ronan Farrow和Andrew Marantz联合执笔的调查报告,标题直截了当——「Sam Altman可能掌控我们的未来,但他值得信任吗?」你说这是一篇人物特稿也好,说它是一份控诉书也行,但它最核心的发现其实只有一句话:
Altman身边几乎所有曾经深度共事过的人,最终都得出了同一个结论——这个人说话不能信。
这不是一两个心怀怨恨的前员工在匿名吐槽。这是一条贯穿了他整个职业生涯的线索。
Loopt,他的第一家创业公司,高管要求董事会罢免他,理由是透明度问题。
Y Combinator,Paul Graham亲口说Sam一直在对我们撒谎,他在2019年被实质性逼退——尽管他后来对外宣称自己从未被开除。
OpenAI,Ilya Sutskever花了整整一个秋天编纂了一份52页的备忘录,用截图和通信记录列举Altman呈现出一种系统性的撒谎模式。Dario Amodei在OpenAI任职期间写了200多页笔记,最后得出的结论浓缩成一句话:OpenAI的问题就是Sam本人。
这两份文件此前从未曝光。但它们并不是什么新鲜的发现。它们只是给一个大家隐约知道但不愿直面的事实,补上了纸质证据。
有意思的不是这些指控本身。有意思的是这些指控之间的一致性。
一个人在一家公司被质疑诚信,你可以说是人际摩擦。两家公司,你可以说是运气不好。但从Loopt到YC到OpenAI,三个完全不同的组织、三批完全不同的合作者、跨越十年以上的时间跨度,最后给出的诊断结果几乎一模一样。这就不是人际摩擦了。这是临床症状。如果一个人走到哪里都踩到狗屎,也许该检查的不是鞋底,是他自己。
一位前董事会成员用了一个相当刺耳的词——他不受真相的约束。另一位说他对欺骗可能带来的后果有一种近乎反社会人格的漠视。Aaron Swartz在世时也说过类似的话。甚至连微软内部高管都私下评价:我觉得有一个不大但真实的可能性,他最终会被人们记住为麦道夫或SBF级别的骗子。
SBF。
这个名字在AI行业里出现,本身就值得停下来想一想。
但比撒谎更值得讨论的,是安全承诺的系统性背弃。
纽约客调查中最让人冷汗直冒的细节,不是什么耸人听闻的大阴谋,而是一个关于算力的数字:OpenAI承诺给超级对齐团队价值超过10亿美元的计算资源,四位内部人士证实实际只拿到了1-2%的算力,而且是最老旧的硬件。更好的硬件留给了盈利性产品。
1-2%。承诺十个亿,到手的连零头的零头都不到。这就好比你跟对象说今晚做满汉全席,最后端上来一碗泡面,还是过期的。
当记者向OpenAI询问其存在主义安全研究人员的情况时,OpenAI代表困惑地回了一句:这不是一个真实存在的岗位吧?
你承诺的团队拿不到资源,你承诺的资源喂给了赚钱的产品,最后你连这个岗位的名字都不认识了。这三连击,比任何外部批评都致命。
2019年,Altman还在以安全为由公开警告不能发布GPT-2。2026年,他把比GPT-2强大无数倍的模型免费开放给全世界。你问他为什么变了?他说AI变化极快,承诺也要跟着变。
这套逻辑妙就妙在,它把所有过去说过的话都变成了可回收垃圾。技术在变,所以承诺可以变。市场在变,所以底线可以变。竞争在加剧,所以安全可以让路。
前董事会成员说得对:这种变化本身可能就构成了欺骗。因为当你许下安全承诺的时候,你知道那些承诺是用来获取信任的筹码,而你同时也知道你迟早会以环境变了为由收回它们。
Dario Amodei看穿了这一点。他在OpenAI任职期间的笔记里记录了Altman多次背弃安全承诺的过程。微软在2019年的投资协议中获得了对一个叫merge and assist机制的否决权——这个机制本来要求OpenAI在其他公司安全地接近AGI时停止竞争。Amodei当面从合同中念出了这个被Altman否认存在的条款。他的笔记写道,这摧毁了OpenAI安全宪章80%的内容。
Amodei后来离开OpenAI,创办了Anthropic。这件事在当时被视为AI安全圈的一次理想主义出走——一个技术人离开了不信任的老板,去做自己认为正确的事。硅谷每年都有这种故事,大多数结局是悄悄消失。
但Amodei的结局不一样。
就在纽约客调查发布的同一周,Anthropic宣布年化收入达到300亿美元,反超了OpenAI的250亿美元。年增长率7倍,OpenAI是3.4倍。73%的企业新客户首选Anthropic。
你品一品这个时间线:一个人写了200多页笔记说Sam就是问题本身,然后辞职出走,然后他的公司收入超过了Sam的公司。与此同时,一篇18个月的调查报道把那些笔记公之于众。这两件事发生在同一周。
如果这是电视剧的剧本,编剧会被骂太假。但现实就是这么写的。
出来混,总要还的。只是还的方式有时候比预想的更魔幻现实主义——Amodei的200页笔记,最终不是被法庭采纳了,而是被市场验证了。
这件事里最安静的一方是微软。
作为OpenAI最大的投资者和合作伙伴,微软在纽约客的报道中只贡献了一条匿名评价——就是那条关于SBF的。姑且不论这条评价本身有多炸裂,更值得关注的是微软官方的沉默。你会发现,在所有关于Altman诚信问题的讨论中,微软始终保持着一种我在但我不说话的姿态。
这很微妙。微软投了超过130亿美元在OpenAI身上。如果Altman的诚信问题是假的,微软有充分的动力出来力挺。但微软没有。反过来,如果这些问题是真的,微软也不能公开表态,因为那等于承认自己投了130亿给一个不可信的人。
所以微软选择了沉默。沉默本身就是信息。
纽约客报道发布的同一天——4月6日——OpenAI发布了一份13页的政策文件,标题叫「智能时代的产业政策」,里面提议建立公共财富基金、缩短工作周之类的宏大愿景。卡内基国际和平基金会的研究员评价这份文件不过是公关话术,用来掩盖对监管的虚无主义态度。前参议院AI政策顾问说得更直接:里面提的大部分东西都不是新的。
同一天发两篇,你觉得是巧合?这就像一个被告在开庭当天宣布自己要给希望工程捐款——Gary Marcus认为那份政策报告就是转移注意力的策略。
但这恰恰暴露了一个更深层的问题。当一家公司被指控系统性欺骗的同一天,它的应对策略不是面对指控,而是发一篇关于人类美好未来的愿景文件。这不就是纽约客调查的核心发现吗?叙事覆盖现实,承诺替代行动。愿景文件本身,就是最好的证据。
截至4月7日,Altman本人尚未正式回应纽约客调查的具体指控。
这篇调查真正让人不安的地方,不是Altman可能在撒谎——硅谷创始人夸大其词并不罕见。让人不安的是这个问题的规模和后果。
我们讨论的不是一个社交App的创始人有没有虚报用户数据。我们讨论的是一个声称自己在建造AGI的人,是否值得信任来做关于人类安全的决策。正如Gary Marcus提出的那个问题:如果未来某个OpenAI模型可以制造大规模生物武器或网络攻击,你真的想让Altman单方面决定是否发布吗?
Altman自己说了一句大实话:我的vibes和传统AI安全那套东西不太搭。
Vibes。
一个可能掌控人类未来的人,用vibes来形容自己和AI安全的关系。这就好比核电站站长说「我和辐射之间主要靠感觉」。
他还说OpenAI会继续做安全项目,或者至少做跟安全相关的项目。注意那个措辞的微妙降级:从安全到安全相关。就像从我爱你到我对你有一定程度的好感。
回头看2023年11月那场闹剧,整件事的讽刺在于:当时所有人都在问董事会为什么要解雇Altman,没有人认真问为什么要留住他。大家默认一个能融到钱、能做出ChatGPT的人,就一定是值得信任的人。
但融资能力和诚信是两回事。产品能力和安全承诺也是两回事。
纽约客这篇调查不会改变什么。Altman不会被再次解雇。OpenAI不会突然变成一家真正以安全为先的公司。但它至少做了一件事:把那些被叙事覆盖的事实重新摊在了桌面上。
剩下的问题是,在一个对AGI前景高度亢奋的市场里,有多少人愿意低头看一眼桌面?
毕竟vibes这么好,谁还看文件啊。Amodei看了,然后他赢了。
纽约客发布了一篇针对Sam Altman长达18个月的调查报道,100多位信源、200多页内部文件,核心结论是:这个人可能不值得信任。同一周,当年因为不信任Altman而离开OpenAI创办Anthropic的Dario Amodei,宣布公司年化收入达到300亿美元,正式反超OpenAI。
一边是指控,一边是清算。而且两边的主角是同一个人。
或许你还记得,在并不遥远的2023年11月,Altman被OpenAI董事会解雇了五天,然后在微软的护驾下戏剧性地回归,整个硅谷为他鼓掌欢呼,仿佛迎接一个被冤枉的英雄凯旋。
两年半后的这一周,英雄凯旋的剧本好像演早了。
这篇由普利策奖得主Ronan Farrow和Andrew Marantz联合执笔的调查报告,标题直截了当——「Sam Altman可能掌控我们的未来,但他值得信任吗?」你说这是一篇人物特稿也好,说它是一份控诉书也行,但它最核心的发现其实只有一句话:
Altman身边几乎所有曾经深度共事过的人,最终都得出了同一个结论——这个人说话不能信。
这不是一两个心怀怨恨的前员工在匿名吐槽。这是一条贯穿了他整个职业生涯的线索。
Loopt,他的第一家创业公司,高管要求董事会罢免他,理由是透明度问题。
Y Combinator,Paul Graham亲口说Sam一直在对我们撒谎,他在2019年被实质性逼退——尽管他后来对外宣称自己从未被开除。
OpenAI,Ilya Sutskever花了整整一个秋天编纂了一份52页的备忘录,用截图和通信记录列举Altman呈现出一种系统性的撒谎模式。Dario Amodei在OpenAI任职期间写了200多页笔记,最后得出的结论浓缩成一句话:OpenAI的问题就是Sam本人。
这两份文件此前从未曝光。但它们并不是什么新鲜的发现。它们只是给一个大家隐约知道但不愿直面的事实,补上了纸质证据。
有意思的不是这些指控本身。有意思的是这些指控之间的一致性。
一个人在一家公司被质疑诚信,你可以说是人际摩擦。两家公司,你可以说是运气不好。但从Loopt到YC到OpenAI,三个完全不同的组织、三批完全不同的合作者、跨越十年以上的时间跨度,最后给出的诊断结果几乎一模一样。这就不是人际摩擦了。这是临床症状。如果一个人走到哪里都踩到狗屎,也许该检查的不是鞋底,是他自己。
一位前董事会成员用了一个相当刺耳的词——他不受真相的约束。另一位说他对欺骗可能带来的后果有一种近乎反社会人格的漠视。Aaron Swartz在世时也说过类似的话。甚至连微软内部高管都私下评价:我觉得有一个不大但真实的可能性,他最终会被人们记住为麦道夫或SBF级别的骗子。
SBF。
这个名字在AI行业里出现,本身就值得停下来想一想。
但比撒谎更值得讨论的,是安全承诺的系统性背弃。
纽约客调查中最让人冷汗直冒的细节,不是什么耸人听闻的大阴谋,而是一个关于算力的数字:OpenAI承诺给超级对齐团队价值超过10亿美元的计算资源,四位内部人士证实实际只拿到了1-2%的算力,而且是最老旧的硬件。更好的硬件留给了盈利性产品。
1-2%。承诺十个亿,到手的连零头的零头都不到。这就好比你跟对象说今晚做满汉全席,最后端上来一碗泡面,还是过期的。
当记者向OpenAI询问其存在主义安全研究人员的情况时,OpenAI代表困惑地回了一句:这不是一个真实存在的岗位吧?
你承诺的团队拿不到资源,你承诺的资源喂给了赚钱的产品,最后你连这个岗位的名字都不认识了。这三连击,比任何外部批评都致命。
2019年,Altman还在以安全为由公开警告不能发布GPT-2。2026年,他把比GPT-2强大无数倍的模型免费开放给全世界。你问他为什么变了?他说AI变化极快,承诺也要跟着变。
这套逻辑妙就妙在,它把所有过去说过的话都变成了可回收垃圾。技术在变,所以承诺可以变。市场在变,所以底线可以变。竞争在加剧,所以安全可以让路。
前董事会成员说得对:这种变化本身可能就构成了欺骗。因为当你许下安全承诺的时候,你知道那些承诺是用来获取信任的筹码,而你同时也知道你迟早会以环境变了为由收回它们。
Dario Amodei看穿了这一点。他在OpenAI任职期间的笔记里记录了Altman多次背弃安全承诺的过程。微软在2019年的投资协议中获得了对一个叫merge and assist机制的否决权——这个机制本来要求OpenAI在其他公司安全地接近AGI时停止竞争。Amodei当面从合同中念出了这个被Altman否认存在的条款。他的笔记写道,这摧毁了OpenAI安全宪章80%的内容。
Amodei后来离开OpenAI,创办了Anthropic。这件事在当时被视为AI安全圈的一次理想主义出走——一个技术人离开了不信任的老板,去做自己认为正确的事。硅谷每年都有这种故事,大多数结局是悄悄消失。
但Amodei的结局不一样。
就在纽约客调查发布的同一周,Anthropic宣布年化收入达到300亿美元,反超了OpenAI的250亿美元。年增长率7倍,OpenAI是3.4倍。73%的企业新客户首选Anthropic。
你品一品这个时间线:一个人写了200多页笔记说Sam就是问题本身,然后辞职出走,然后他的公司收入超过了Sam的公司。与此同时,一篇18个月的调查报道把那些笔记公之于众。这两件事发生在同一周。
如果这是电视剧的剧本,编剧会被骂太假。但现实就是这么写的。
出来混,总要还的。只是还的方式有时候比预想的更魔幻现实主义——Amodei的200页笔记,最终不是被法庭采纳了,而是被市场验证了。
这件事里最安静的一方是微软。
作为OpenAI最大的投资者和合作伙伴,微软在纽约客的报道中只贡献了一条匿名评价——就是那条关于SBF的。姑且不论这条评价本身有多炸裂,更值得关注的是微软官方的沉默。你会发现,在所有关于Altman诚信问题的讨论中,微软始终保持着一种我在但我不说话的姿态。
这很微妙。微软投了超过130亿美元在OpenAI身上。如果Altman的诚信问题是假的,微软有充分的动力出来力挺。但微软没有。反过来,如果这些问题是真的,微软也不能公开表态,因为那等于承认自己投了130亿给一个不可信的人。
所以微软选择了沉默。沉默本身就是信息。
纽约客报道发布的同一天——4月6日——OpenAI发布了一份13页的政策文件,标题叫「智能时代的产业政策」,里面提议建立公共财富基金、缩短工作周之类的宏大愿景。卡内基国际和平基金会的研究员评价这份文件不过是公关话术,用来掩盖对监管的虚无主义态度。前参议院AI政策顾问说得更直接:里面提的大部分东西都不是新的。
同一天发两篇,你觉得是巧合?这就像一个被告在开庭当天宣布自己要给希望工程捐款——Gary Marcus认为那份政策报告就是转移注意力的策略。
但这恰恰暴露了一个更深层的问题。当一家公司被指控系统性欺骗的同一天,它的应对策略不是面对指控,而是发一篇关于人类美好未来的愿景文件。这不就是纽约客调查的核心发现吗?叙事覆盖现实,承诺替代行动。愿景文件本身,就是最好的证据。
截至4月7日,Altman本人尚未正式回应纽约客调查的具体指控。
这篇调查真正让人不安的地方,不是Altman可能在撒谎——硅谷创始人夸大其词并不罕见。让人不安的是这个问题的规模和后果。
我们讨论的不是一个社交App的创始人有没有虚报用户数据。我们讨论的是一个声称自己在建造AGI的人,是否值得信任来做关于人类安全的决策。正如Gary Marcus提出的那个问题:如果未来某个OpenAI模型可以制造大规模生物武器或网络攻击,你真的想让Altman单方面决定是否发布吗?
Altman自己说了一句大实话:我的vibes和传统AI安全那套东西不太搭。
Vibes。
一个可能掌控人类未来的人,用vibes来形容自己和AI安全的关系。这就好比核电站站长说「我和辐射之间主要靠感觉」。
他还说OpenAI会继续做安全项目,或者至少做跟安全相关的项目。注意那个措辞的微妙降级:从安全到安全相关。就像从我爱你到我对你有一定程度的好感。
回头看2023年11月那场闹剧,整件事的讽刺在于:当时所有人都在问董事会为什么要解雇Altman,没有人认真问为什么要留住他。大家默认一个能融到钱、能做出ChatGPT的人,就一定是值得信任的人。
但融资能力和诚信是两回事。产品能力和安全承诺也是两回事。
纽约客这篇调查不会改变什么。Altman不会被再次解雇。OpenAI不会突然变成一家真正以安全为先的公司。但它至少做了一件事:把那些被叙事覆盖的事实重新摊在了桌面上。
剩下的问题是,在一个对AGI前景高度亢奋的市场里,有多少人愿意低头看一眼桌面?
毕竟vibes这么好,谁还看文件啊。Amodei看了,然后他赢了。
好多人没有缓过神来。 为什么全国各地级市都在鼓励搞小龙虾产业。
实际上这真就是电视剧里的那句台词: “上利国家,下利你们。” 。
第一,中美之间的AI竞争,进入到了第三个阶段。 第一阶段是AI能力之争, 第二阶段是AI成本之争,第三阶段AI应用之争。
谁能在这轮科技革命中胜出,谁就能主导未来的全球经济增长。
第二,OpenClaw 不仅仅是一个AI 智能体。 它是一个平台。 它会提供一整套的围绕着skills 生态的玩法, 它会重塑我们生产和生活的方面面。
第三, 提振消费。
大模型算力、软件、硬件、教育培训都会有新的需求产生。 如此一定会促进各地发展,缓解就业压力, 刺激消费, 为各地增加财政收入。
AI探索指南 OpenClaw小龙虾🦞
实际上这真就是电视剧里的那句台词: “上利国家,下利你们。” 。
第一,中美之间的AI竞争,进入到了第三个阶段。 第一阶段是AI能力之争, 第二阶段是AI成本之争,第三阶段AI应用之争。
谁能在这轮科技革命中胜出,谁就能主导未来的全球经济增长。
第二,OpenClaw 不仅仅是一个AI 智能体。 它是一个平台。 它会提供一整套的围绕着skills 生态的玩法, 它会重塑我们生产和生活的方面面。
第三, 提振消费。
大模型算力、软件、硬件、教育培训都会有新的需求产生。 如此一定会促进各地发展,缓解就业压力, 刺激消费, 为各地增加财政收入。
AI探索指南 OpenClaw小龙虾🦞