关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
AIGC 领域的最新工具、开源项目以及行业大事件
AIGC 领域的最新工具、开源项目以及行业大事件
✅ 纯本地运行:零安装·零上传·隐私拉满
✅ AI一键搞定:自动字幕+语音转录+智能剪辑
✅ 专业多轨时间线,手机电脑随便用
不想传云端?直接打开浏览器即可体验!完全免费开源~
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
所有人都该去试试这个新的王炸组合: GPT image2 + Seedance2.0!
GPT搞定脚本和分镜图, 有一种用简单提示词就可以get到意图的爽感。
再用Seedance2.0把分镜图生成视频,丝滑又稳定!
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
GPT搞定脚本和分镜图, 有一种用简单提示词就可以get到意图的爽感。
再用Seedance2.0把分镜图生成视频,丝滑又稳定!
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
Discord的 ui 界面也太好看了吧,瞬间看舒服了,高级了很多
同样的功能列表,Discord 一打开,频道分层、消息排版、交互反馈,处处是细节
深色模式更是降维打击
工具的颜值不仅是锦上添花,也是效率的一部分
之前调 Bot 像在用后台管理系统,Discord 上像是在用一款精心设计的生产力工具
好看的东西会让你想多打开几次,想多聊几句,想多试几个功能
2026年了,还在忍受丑 UI 的伙伴们,可能是对颜值最宽容的一群人
但宽容不代表不需要
搬到 Discord,OpenClaw 没变,但我变心了
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
1. 📢 优质「资源」收藏夹
收藏高质量书籍、资料、资源,帮助你获取优质资源。
2. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。
3. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。
4. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。
5. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。
6. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;
7. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识
8. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。
9. 📢 🍉 每日吃瓜【人间观察实录】
观世间万象,品人情冷暖。看热闹不嫌事大,聊八卦与有荣焉。【人间观察实录】
10. 📢 副业赚钱探索指南
深入探讨各种副业机会,分享实用的赚钱策略,发现那些隐藏的赚钱宝藏,提高你的赚钱认知。
收藏高质量书籍、资料、资源,帮助你获取优质资源。
2. 📢 你不知道的内幕消息
一些你不知道的内幕消息,最新资讯、大公司负面、时政财经、网友发布等高质量消息。
3. 📢 互联网从业者充电站
内容多为技术、产品、设计、运营等不同话题内容,互联网从业者专属。
4. 📢 出海🚢&自媒体运营秘籍
分享出海经验、赚美金、运营技巧、小红书运营、网赚项目等。
5. 📢 中年人生存报告
关于职场、生活、创业、30+、失业、中年生活、夫妻关系等话题。
6. 📢 💵星辰观察站
Web3加密市场、美股、金融投资,理财,金融知识;
7. 📢 你不知道的冷知识
有趣的、无趣的、有用的、没用的知识
8. 📢 优质「信息」收藏夹
优质内容/信息/软件/插件/网站等分享,好玩的、好用的数字产品分享,提高你的信息获取质量。
9. 📢 🍉 每日吃瓜【人间观察实录】
观世间万象,品人情冷暖。看热闹不嫌事大,聊八卦与有荣焉。【人间观察实录】
10. 📢 副业赚钱探索指南
深入探讨各种副业机会,分享实用的赚钱策略,发现那些隐藏的赚钱宝藏,提高你的赚钱认知。
这种情侣互动视频应用Seedance2.0 生成效果太好了!感觉女朋友要扑过来了😂
要有更好的效果,我觉得要提示词有几个要点:
1.第一人称男生视角,有种身临其境的感觉
2.微表情、眼神都能够大大增加亲密互动的体验感
3.像写小说一样写提示词,心理和动作越细腻,越真实
Seedance2.0提示词👇
第一人称男生视角,客厅沙发上,一位年轻女性(面部形象参考
主视角坐在她身旁,看着她放松的样子,忍不住伸手轻轻碰了碰她的小腿,指尖刚触到皮肤——
她瞬间浑身一颤,手机差点掉落,猛地转过头瞪大眼睛看向观看者,眼神中闪过一丝惊慌和意外,嘴巴微微张开,像是被吓到。
然而下一秒,她表情骤然变化。嘴角慢慢勾起,眼睛微微眯起,露出一抹意味深长的邪笑。她缓缓放下手机,坐直身体,盯着观看者的眼神像是发现了什么有趣的事。
还没等主视角反应,她突然身体前倾,直接朝观看者身上扑了过来。双手按在观看者胸口,整个人压了上来,将观看者推倒在沙发靠背上。她近距离盯着观看者的眼睛,笑意更深。
主视角被这突如其来的动作弄得手足无措,身体僵住,双手悬在半空不敢碰她,慌乱地开口:“等、等一下……你误会了,我没那个意思……”
她只是笑着凑近,一言不发。
场景是客厅,暖色调家居灯光,浅景深,焦点集中在她的表情变化和扑过来的动作上,使用写实风的画面风格生成素材。胶片颗粒感, 增强光影对比度, 画面细节重塑, 消除数码噪声。
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
要有更好的效果,我觉得要提示词有几个要点:
1.第一人称男生视角,有种身临其境的感觉
2.微表情、眼神都能够大大增加亲密互动的体验感
3.像写小说一样写提示词,心理和动作越细腻,越真实
Seedance2.0提示词👇
第一人称男生视角,客厅沙发上,一位年轻女性(面部形象参考
主视角坐在她身旁,看着她放松的样子,忍不住伸手轻轻碰了碰她的小腿,指尖刚触到皮肤——
她瞬间浑身一颤,手机差点掉落,猛地转过头瞪大眼睛看向观看者,眼神中闪过一丝惊慌和意外,嘴巴微微张开,像是被吓到。
然而下一秒,她表情骤然变化。嘴角慢慢勾起,眼睛微微眯起,露出一抹意味深长的邪笑。她缓缓放下手机,坐直身体,盯着观看者的眼神像是发现了什么有趣的事。
还没等主视角反应,她突然身体前倾,直接朝观看者身上扑了过来。双手按在观看者胸口,整个人压了上来,将观看者推倒在沙发靠背上。她近距离盯着观看者的眼睛,笑意更深。
主视角被这突如其来的动作弄得手足无措,身体僵住,双手悬在半空不敢碰她,慌乱地开口:“等、等一下……你误会了,我没那个意思……”
她只是笑着凑近,一言不发。
场景是客厅,暖色调家居灯光,浅景深,焦点集中在她的表情变化和扑过来的动作上,使用写实风的画面风格生成素材。胶片颗粒感, 增强光影对比度, 画面细节重塑, 消除数码噪声。
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞
π0.7:复刻LLM的关键时刻
π0.7是 PI 第一次在论文里展示,机器人能做"训练数据里完全没有"的任务。
核心概念是 compositional generalization(组合泛化)——"组合泛化是指把在不同情境下学到的技能组合起来,去解决模型从未见过的问题的能力"。"在此之前,机器人训练的标准做法本质上就是死记硬背——为某个特定任务收集数据,训练一个专门模型,然后对每个新任务重复这个过程。π0.7 打破了这个模式"。
最有说服力的实验:跨机器人本体的零样本迁移。用 A 机器人(小型、灵活)的叠衣服数据训练,让 B 机器人(重型工业臂、惯量大、夹爪不精准)零样本叠衣服并成功。这相当于一个人只看过别人用筷子吃饭,自己就直接能用刀叉吃饭——动作模式完全不一样,但"叠衣服"这个抽象概念被模型学会了,并且能映射到完全不同的"身体"上。
PI 自己的措辞非常克制——这是好的科学态度,但也意味着别过度兴奋:"论文本身全程使用谨慎措辞,把 π0.7 描述为展现了泛化的'早期迹象'和新能力的'初步演示'。这些是研究结果,不是已部署的产品"。
下一波要看的是:(1)开源后第三方能不能复现;(2)在真实部署里(不是实验室)的成功率;(3)下一代 π1 出来时这个泛化能力是继续涨还是平台化。
π0.7:复刻LLM的关键时刻
π0.7是 PI 第一次在论文里展示,机器人能做"训练数据里完全没有"的任务。
核心概念是 compositional generalization(组合泛化)——"组合泛化是指把在不同情境下学到的技能组合起来,去解决模型从未见过的问题的能力"。"在此之前,机器人训练的标准做法本质上就是死记硬背——为某个特定任务收集数据,训练一个专门模型,然后对每个新任务重复这个过程。π0.7 打破了这个模式"。
最有说服力的实验:跨机器人本体的零样本迁移。用 A 机器人(小型、灵活)的叠衣服数据训练,让 B 机器人(重型工业臂、惯量大、夹爪不精准)零样本叠衣服并成功。这相当于一个人只看过别人用筷子吃饭,自己就直接能用刀叉吃饭——动作模式完全不一样,但"叠衣服"这个抽象概念被模型学会了,并且能映射到完全不同的"身体"上。
PI 自己的措辞非常克制——这是好的科学态度,但也意味着别过度兴奋:"论文本身全程使用谨慎措辞,把 π0.7 描述为展现了泛化的'早期迹象'和新能力的'初步演示'。这些是研究结果,不是已部署的产品"。
下一波要看的是:(1)开源后第三方能不能复现;(2)在真实部署里(不是实验室)的成功率;(3)下一代 π1 出来时这个泛化能力是继续涨还是平台化。
π0.7是 PI 第一次在论文里展示,机器人能做"训练数据里完全没有"的任务。
核心概念是 compositional generalization(组合泛化)——"组合泛化是指把在不同情境下学到的技能组合起来,去解决模型从未见过的问题的能力"。"在此之前,机器人训练的标准做法本质上就是死记硬背——为某个特定任务收集数据,训练一个专门模型,然后对每个新任务重复这个过程。π0.7 打破了这个模式"。
最有说服力的实验:跨机器人本体的零样本迁移。用 A 机器人(小型、灵活)的叠衣服数据训练,让 B 机器人(重型工业臂、惯量大、夹爪不精准)零样本叠衣服并成功。这相当于一个人只看过别人用筷子吃饭,自己就直接能用刀叉吃饭——动作模式完全不一样,但"叠衣服"这个抽象概念被模型学会了,并且能映射到完全不同的"身体"上。
PI 自己的措辞非常克制——这是好的科学态度,但也意味着别过度兴奋:"论文本身全程使用谨慎措辞,把 π0.7 描述为展现了泛化的'早期迹象'和新能力的'初步演示'。这些是研究结果,不是已部署的产品"。
下一波要看的是:(1)开源后第三方能不能复现;(2)在真实部署里(不是实验室)的成功率;(3)下一代 π1 出来时这个泛化能力是继续涨还是平台化。
前段时间,它刚被提示词开源库 Awesome Prompt Engineering(5.5k⭐) 收录,这就足以证明它的优秀
但我真正喜欢它的原因,其实不是“提示词多”,而是它把整个创作流程打通了。很多提示词网站只是在“堆内容”,而 MeiGen做的是一整条创作链路:
找提示词 → 生成图片 → 修改优化 → 发布分享
整个流程几乎没有卡点。
这次更新之后,它甚至把AI图片创作 → AI视频创作也打通了。新增 veo3.1 模型,做完图之后可以直接图生视频,创作效率直接拉满。
另外还有一个很有意思的更新:新增开源 MCP 工具,可以让你的 OpenClaw / Claude Code 具备类似 Lovart 的创意规划能力。
如果你经常做 AI 图片创作,你应该能理解这种感觉:从灵感到成品,一路丝滑。
使用 MeiGen 的创作流程基本是这样的:
1️⃣ 内置多个标签体系,可以搜索历史和社区帖子,快速找到想要的提示词
2️⃣ 找到提示词后可以直接生成图片,无需跳转其它工具
3️⃣ 支持 veo3.1 模型,生成图片后可以直接图生视频
4️⃣ 内置 修图 / 抠图 / 反推提示词 等基础修改能力
5️⃣ 一键发布到 𝕏,减少内容创作中的重复操作
可以说 MeiGen 把 AI 图片创作从“找工具”变成了“直接创作”。
作者的所有开源数据,都可以在👉https://github.com/jau123 中可以找到
AI探索指南 | Hermes爱马仕 & OpenClaw小龙虾🦞