关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
AIGC 领域的最新工具、开源项目以及行业大事件
年轻人已经从开始刷刷刷中逃离了
人是喜欢多样性的生物
一样东西吃多了总会吐的
每次用户问我为什么不支持 Windows
我都说真心建议买一个 Mac,这是 AI 时代最好的投资。
这句话的含金量还在上升...
现在AI创作者涌现,优秀的作品层出不穷。我觉得质感做得最好的也是非常符合我的口味的,要算Gossip Goblin的作品,创办者Zack London是一位非常出色的AI艺术家。

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
Media is too big
VIEW IN TELEGRAM
科斯定理说交易成本降低了,公司就没必要存在了。OPC 的叙事逻辑也建立在这上面。
但这里有个盲区:以为一个人加上 AI 加上外部合同就能解决一切。但没有人跟你共担风险。
OPC 只是解决了能力问题,没解决信任问题和风险问题。
合同工不会跟你共担风险。他被高价者得到,关键时刻会消失。你需要他的时候他在服务别人。
雇佣的本质是买确定性。你付月薪,买断的是"他随时在,他了解我的上下文,他不会跑"。这是一种古老的风险共担机制。代价是他的自由。
合伙的本质是几个人把自己的命运押进同一个池子里。一起共担风险,但利益分配的机制又决定了,合伙的利益必须远远大于各自的利益才可以。
塔勒布的新书为什么这么真实:
我记得曾经有人问我为什么上班不系领带,在那个年代,这种行为相当于在第五大道上裸奔。“为了我的傲慢,为了我的审美,为了我的方便。”我通常都是这样回答的(但他们通常只记住了我的傲慢)。如果你能给公司带来盈利,那么,你无论对老板多么无礼都可以。

我忍不住要告诉你们这个故事:有一次我收到一封信—“亲爱的塔勒布先生,我是你作品的忠实读者,我想给你提一个建议,像你这样的知识分子如果不说脏话,那么将会极大地提升你的影响力。”
我的回复很简短:“滚。”
阿伊卡寓言里面有一个非常著名的故事。
故事讲的是有一只狗向它的亲戚狼炫耀自己豪华而舒服的生活,这差点儿就让狼动心加入它的行列了。
狼最后做决定之前,问了这样一个问题:“你脖子上的项圈是干什么用的?”
了解项圈的功能后,狼感到深深的恐惧:“你盘子里的食物,我什么都不要。”
狼一边说一边逃跑了,直到现在都没有回心转意。
我越来越觉得,大多数人对“进步”的理解是错的。

有人以为进步靠资源,有钱就能搞研发,人多就能出成果,数据多就能训练出好模型。也有人认为进步靠运气,刚好踩中了风口,碰上了时代红利就能起飞。还有人觉得进步靠制度,只要规则对,结果自然来。

但如果你真的研究过任何一个从无到有的突破,你就会发现这些都不是根本原因。

进步真正的起点是一个人面对一个没人解决过的问题,闭着眼睛往前走了一步。这一步没有任何依据,没有任何保证,甚至大概率是错的。但它一旦被迈过去,从此世界就多了一条以前没有的路。

我们从小被教育做事情要有依据,要等有足够证据再下结论。这套方法论在稳定、重复、可预测的环境里十分管用,但在真正的创新面前就完全失效了。因为真正的新东西在刚出现的时候是没有任何依据的,它必须被凭空“猜”出来。

你可能觉得“猜”这个词太轻了,但仔细想想爱因斯坦的相对论是怎么来的?他先猜了一个“光速不变”,然后看这个猜测会推导出什么荒谬的结论后再去检验。达尔文的进化论呢?他是在没有基因概念、没有化石证据链的情况下,先猜了一个“物种通过自然选择演化”,然后用几十年的时间去寻找证据。

这就是“猜想与反驳”的核心逻辑,你观察一万只白天鹅也证明不了“所有天鹅都是白的”。真正的新知识,只能通过先猜、再证伪的方式产生。你提出一个猜测然后拼命试图推翻它。扛住了,它就暂时成立。扛不住,你就知道这条路不通,换下一个。

这个过程中还有一个极其重要的副产品,即错误不再是失败的证据,而是进步的燃料。每排除一个错误的猜测,你就离真相更近了一步。一个从来不犯错的人,本质上已经停止了进步。

把这件事想清楚之后,你再去看今天的AI就会有一个非常清醒的认识。现在的大模型本质上是一个巨大的模式匹配器,它读过全人类写的大部分东西,然后学会了“接下来该说什么”。你问它一个问题,它就在见过的所有答案的河床里,找出最有可能流过来的那个。它就算算得比人快一万倍,也永远不会在没有依据的地方,闭着眼睛往前走一步。

这意味着AI目前还只是一个超级学生,而非一个真正的创造者。它能把你教给它的东西用到极致,但没办法凭空想出一个你从没教过它、甚至你自己都没想到的假设。而人类最独特的能力,恰恰就是这个。

这就是为什么“问题是一定存在的”和“问题是可以被解决的”这两个信念,构成了进步最底层的动力。你只有相信问题存在,才会去找。你只有相信问题可以被解决,才会在找不到的时候继续猜。绝大多数人停在第一步,因为他们默认“这个问题可能无解”。但“无解”是一个极其傲慢的结论,它意味着所有可能的解决方案在物理规律允许的范围内都已经被你穷举过了,你凭什么这么确定呢?

悲观主义之所以在逻辑上站不住脚,是因为它隐含了一个无法被证明的断言,即某些知识永远不可能被创造出来。你没法证明一个东西永远不会被发现,所以你每说一次“不可能”,其实都只是在暴露自己想象力的边界。

真正的乐观主义不是情绪上的积极,也不是骗自己说一切都会好起来。它基于一个可验证的事实,即人类已经解决了无数看似不可能的问题。我们把曾经动不动就夺走几千万人生命的天花灭绝了,我们把曾经以为永恒不变的地心说推翻了,我们把曾经需要几个月才能跨越的大洋压缩到了十几个小时。这些在它们发生之前都被人说过“不可能”,但后来都发生了。所以当我们面对今天的问题时,最理性的态度应该是“暂时还没找到办法”。

这个态度的转变会彻底改变一个人的行为模式,当你觉得一件事不可能时就会停止思考。而当你觉得“只是暂时还没找到办法”时就会持续地猜、试、错、再猜。即便循环几次后你可能依然没找到答案,但你在这个过程中获得的东西已经远远超过了那个答案本身。你学会了如何定义问题,如何提出假设,如何设计检验,如何从失败里提取信息。

我把这种能力称为“猜想肌肉”,它和任何肌肉一样,不用就退化。你越依赖标准答案,就越难产生新的猜测。你越害怕犯错,就越不敢提出那些看起来不靠谱的假设。但恰恰是那些看起来不靠谱的假设,偶尔会蹦出一个颠覆性的好东西。

现在回头看,人类文明其实只在两种状态之间摇摆。一种是静态,崇尚传统,依赖模仿,任何偏离都被视为威胁。这种状态能延续很久,因为它极其稳定。但其致命缺陷是当环境变化超出了经验的覆盖范围时,就会崩溃。另一种是动态,极其少见,鼓励批判,允许改变,核心是创造。人类只在极少数时期、极少数地方进入过这种状态,现在可能正在经历又一次窗口期。

问题是这个窗口很容易关上,因为维持批判性思维很累,维持创造很不舒服。AI的流畅、准确、永远不累,正在把我们往静态那边拉。因为你不需要再猜了,问它就行。你不需要再批判了,因为它给的答案通常就是最优解。

但最优解是过去的解,不是未来的解。未来的解,尚未被猜出来。

所以真正重要的问题并非“AI会不会取代人”,应是“在AI提供所有标准答案的时代,人还能不能保留瞎猜的勇气”。这可能是我们这一代人面临的最隐蔽、也最关键的挑战。

我从不担心AI太强,我担心的是我们会因为太舒服而忘记自己还有“闭着眼睛往前走一步”的能力,那个能力才是进步唯一的引擎。AI的未来也不应该沿着“更准、更快、更顺”的斜坡滑下去,那是一条通向静态文明的死路。真正的方向是通过建立独立的猜想生成器,用建设性错误代替最小化误差,让对抗式检验成为工作流的默认环节。

这意味着我们需要重新思考大模型的底层架构,重新定义智能的本质。如果知识增长的唯一途径是“猜想与反驳”,那么任何封闭系统都无法长期维持稳定。不管是公司、国家还是技术体系,只要你停止了创造新假设、批判旧假设,你就会退步。

这世上没有穷尽,所有“不可能”都只是“还没”。那一条条还没踩出来的路,就藏在每一次你觉得“这太离谱了但还是想试一试”的冲动里。
第一次看见智元机器人,b站稚晖君公司的产品,听说这一台差不多快10万块!!!😲一台也有将近70斤重。
给你们看看豆包的另一面
哈哈哈哈
豆包语音大升级,现在是全双工语音对了,可以像真人一样和你对...
它可以边听你说边处理信息,该等的时候它会等你把说完,即使你嗯嗯啊啊的结巴,它也会耐心等你,该接的时候马上接,
而且你可以随时打断它...

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
Back to Top