关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
AIGC 领域的最新工具、开源项目以及行业大事件
Cutia:AI原生开源视频编辑器,CapCut(剪映)的免费隐私替代品!
纯本地运行:零安装·零上传·隐私拉满
AI一键搞定:自动字幕+语音转录+智能剪辑
专业多轨时间线,手机电脑随便用
不想传云端?直接打开浏览器即可体验!完全免费开源~

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
对不起Nano banana2,
GPT 2 Image现在是我的新欢了!😂
用了GPT 2 Image半天,有以下几点感受
1、中文渲染几乎准确无误
2、稳定性比Nano banana2更强,抽卡概率大大减小
3、个人感觉在艺术表现方面略逊于Nano banana2,但是瑕不掩瑜
分享几个我的实例提示词:
1、生成特朗普和金正恩在抖音直播间打PK的截图
2、生成不知火舞的小红书主页截图
3、生成图片:
手写在教室黑板上的出师表全文,真实感的粉笔字迹,晴朗白天用iPhone手机实拍
4、生成图片:
T-800机器人的淘宝商品详情页,展示:
机器人的正面侧面背面三视图,
产品价格,
产品细节,
功能和使用场景等
直接在ChatGPT网页版或客户端,选择“创建图片”功能体验即可

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
所有人都该去试试这个新的王炸组合: GPT image2 + Seedance2.0!
GPT搞定脚本和分镜图, 有一种用简单提示词就可以get到意图的爽感。
再用Seedance2.0把分镜图生成视频,丝滑又稳定!

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
用了一段时间 Telegram 搭 OpenClaw,今天搬到Discord,发现变天了
Discord的 ui 界面也太好看了吧,瞬间看舒服了,高级了很多
同样的功能列表,Discord 一打开,频道分层、消息排版、交互反馈,处处是细节
深色模式更是降维打击
工具的颜值不仅是锦上添花,也是效率的一部分
之前调 Bot 像在用后台管理系统,Discord 上像是在用一款精心设计的生产力工具
好看的东西会让你想多打开几次,想多聊几句,想多试几个功能
2026年了,还在忍受丑 UI 的伙伴们,可能是对颜值最宽容的一群人
但宽容不代表不需要
搬到 Discord,OpenClaw 没变,但我变心了

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
1. 📢 优质「资源」收藏夹
收藏高质量书籍、资料、资源,帮助你获取优质资源。

2. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。

3. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。

4. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。

5. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。

6. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;

7. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识

8. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。

9. 📢 🍉 每日吃瓜【人间观察实录】
观世间万象,品人情冷暖。看热闹不嫌事大,聊八卦与有荣焉。【人间观察实录】

10. 📢 副业赚钱探索指南
深入探讨各种副业机会,分享实用的赚钱策略,发现那些隐藏的赚钱宝藏,提高你的赚钱认知。
买了一些老书
这种情侣互动视频应用Seedance2.0 生成效果太好了!感觉女朋友要扑过来了😂
要有更好的效果,我觉得要提示词有几个要点:
1.第一人称男生视角,有种身临其境的感觉
2.微表情、眼神都能够大大增加亲密互动的体验感
3.像写小说一样写提示词,心理和动作越细腻,越真实
Seedance2.0提示词👇
第一人称男生视角,客厅沙发上,一位年轻女性(面部形象参考
主视角坐在她身旁,看着她放松的样子,忍不住伸手轻轻碰了碰她的小腿,指尖刚触到皮肤——
她瞬间浑身一颤,手机差点掉落,猛地转过头瞪大眼睛看向观看者,眼神中闪过一丝惊慌和意外,嘴巴微微张开,像是被吓到。
然而下一秒,她表情骤然变化。嘴角慢慢勾起,眼睛微微眯起,露出一抹意味深长的邪笑。她缓缓放下手机,坐直身体,盯着观看者的眼神像是发现了什么有趣的事。
还没等主视角反应,她突然身体前倾,直接朝观看者身上扑了过来。双手按在观看者胸口,整个人压了上来,将观看者推倒在沙发靠背上。她近距离盯着观看者的眼睛,笑意更深。
主视角被这突如其来的动作弄得手足无措,身体僵住,双手悬在半空不敢碰她,慌乱地开口:“等、等一下……你误会了,我没那个意思……”
她只是笑着凑近,一言不发。
场景是客厅,暖色调家居灯光,浅景深,焦点集中在她的表情变化和扑过来的动作上,使用写实风的画面风格生成素材。胶片颗粒感, 增强光影对比度, 画面细节重塑, 消除数码噪声。

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
之前爆料的 Claude 设计工具上线了

类似 lovable 那种,可以帮你生成网页和APP原型以及PPT等内容

支持导出PPT格式和导出到Canvas
Media is too big
VIEW IN TELEGRAM
下周的日程,又是 E 版橘子营业的一周:
周三,北京,43 talks 讲 AI 组织转型
周四,深圳,和硬件大佬们学习
周日,北京,十字路口开放麦分享 Cola
有缘相见。
发现身边第二位朋友把自己的一切决策都交给了 Agent
他说他自从开始让他的 Agent 荐股,不到三个月已经获得了 50% 的收益率
这正反馈太强了
资本主义时代,钱是最重要的
后资本主义时代,钱已经不再重要了
钱都不重要了,投资还重要吗?
现在这些一级市场二级市场的东西,都会变得像游戏里的交易所和赌场
这么看 polymarket 很未来
半夜三点醒来看了这个就一直没睡,想到现在也不明白做出这玩意的人给AI喂了什么

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
大模型的本质就是炼化一切数据
一切能产生数据的东西,都在模型的主航道上
区别只是时间,你还有多久会被吃掉

但模型需要触点去接触数据
你其实只有两个选择
要么成为螳螂,要么成为触点
Claude Design 发布了
我们进入了设计的新时代
Figma 看起来如此落伍,没有未来了
Canva 却说他们很开心和 Claude 合作 🤔
https://mp.weixin.qq.com/s/LEbdg5gktwJjAYU7hQ4whg

π0.7:复刻LLM的关键时刻
π0.7是 PI 第一次在论文里展示,机器人能做"训练数据里完全没有"的任务。
核心概念是 compositional generalization(组合泛化)——"组合泛化是指把在不同情境下学到的技能组合起来,去解决模型从未见过的问题的能力"。"在此之前,机器人训练的标准做法本质上就是死记硬背——为某个特定任务收集数据,训练一个专门模型,然后对每个新任务重复这个过程。π0.7 打破了这个模式"。
最有说服力的实验:跨机器人本体的零样本迁移。用 A 机器人(小型、灵活)的叠衣服数据训练,让 B 机器人(重型工业臂、惯量大、夹爪不精准)零样本叠衣服并成功。这相当于一个人只看过别人用筷子吃饭,自己就直接能用刀叉吃饭——动作模式完全不一样,但"叠衣服"这个抽象概念被模型学会了,并且能映射到完全不同的"身体"上。
PI 自己的措辞非常克制——这是好的科学态度,但也意味着别过度兴奋:"论文本身全程使用谨慎措辞,把 π0.7 描述为展现了泛化的'早期迹象'和新能力的'初步演示'。这些是研究结果,不是已部署的产品"。
下一波要看的是:(1)开源后第三方能不能复现;(2)在真实部署里(不是实验室)的成功率;(3)下一代 π1 出来时这个泛化能力是继续涨还是平台化。
π0.7:复刻LLM的关键时刻
π0.7是 PI 第一次在论文里展示,机器人能做"训练数据里完全没有"的任务。
核心概念是 compositional generalization(组合泛化)——"组合泛化是指把在不同情境下学到的技能组合起来,去解决模型从未见过的问题的能力"。"在此之前,机器人训练的标准做法本质上就是死记硬背——为某个特定任务收集数据,训练一个专门模型,然后对每个新任务重复这个过程。π0.7 打破了这个模式"。
最有说服力的实验:跨机器人本体的零样本迁移。用 A 机器人(小型、灵活)的叠衣服数据训练,让 B 机器人(重型工业臂、惯量大、夹爪不精准)零样本叠衣服并成功。这相当于一个人只看过别人用筷子吃饭,自己就直接能用刀叉吃饭——动作模式完全不一样,但"叠衣服"这个抽象概念被模型学会了,并且能映射到完全不同的"身体"上。
PI 自己的措辞非常克制——这是好的科学态度,但也意味着别过度兴奋:"论文本身全程使用谨慎措辞,把 π0.7 描述为展现了泛化的'早期迹象'和新能力的'初步演示'。这些是研究结果,不是已部署的产品"。
下一波要看的是:(1)开源后第三方能不能复现;(2)在真实部署里(不是实验室)的成功率;(3)下一代 π1 出来时这个泛化能力是继续涨还是平台化。
AI图片相关的提示词网站我收藏过不少,也用过很多,但 http://meigen.ai 是目前我仍然在高频使用的一个开源网站。
前段时间,它刚被提示词开源库 Awesome Prompt Engineering(5.5k) 收录,这就足以证明它的优秀
但我真正喜欢它的原因,其实不是“提示词多”,而是它把整个创作流程打通了。很多提示词网站只是在“堆内容”,而 MeiGen做的是一整条创作链路:
找提示词 → 生成图片 → 修改优化 → 发布分享
整个流程几乎没有卡点。
这次更新之后,它甚至把AI图片创作 → AI视频创作也打通了。新增 veo3.1 模型,做完图之后可以直接图生视频,创作效率直接拉满。
另外还有一个很有意思的更新:新增开源 MCP 工具,可以让你的 OpenClaw / Claude Code 具备类似 Lovart 的创意规划能力。
如果你经常做 AI 图片创作,你应该能理解这种感觉:从灵感到成品,一路丝滑。
使用 MeiGen 的创作流程基本是这样的:
1️⃣ 内置多个标签体系,可以搜索历史和社区帖子,快速找到想要的提示词
2️⃣ 找到提示词后可以直接生成图片,无需跳转其它工具
3️⃣ 支持 veo3.1 模型,生成图片后可以直接图生视频
4️⃣ 内置 修图 / 抠图 / 反推提示词 等基础修改能力
5️⃣ 一键发布到 𝕏,减少内容创作中的重复操作
可以说 MeiGen 把 AI 图片创作从“找工具”变成了“直接创作”。
作者的所有开源数据,都可以在👉https://github.com/jau123 中可以找到

AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
Back to Top