关于AIGC人工智能、思维方式、知识拓展,能力提升等。投稿/合作: @inside1024_bot
AIGC 领域的最新工具、开源项目以及行业大事件
😂😂😂😂😂😂😂😂 ⚡️⚡️⚡️⚡️⚡️⚡️⚡️⚡️⚡️⚡️

永久网址❤️❤️❤️❤️ 1820036.com

🏆#182体育 豪礼大放送、#高端嫩模、劳力士手表、奔驰E300等大礼等你来豪夺 首存日存彩金送不停

❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️
🏆182体育 封神榜🏆
➡️ 12月14号神秘盘总pp电子极速糖果直接炸150万成功提款142万
➡️
12月26日实力大哥PA真人豪赢170万成功提款163万
➡️
1月7号神秘大哥PG麻将胡了直接爆120万成功提款117万

🏆平台优势:
1️⃣ #平台公平、公正、公开,信誉第一、服务第一
2️⃣
#免实名 不限ip 无需绑定手机号码和银行卡
3️⃣ #u存u提 每日提款无上限 资金保障、大额无忧
4️⃣ #平台支持❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ 以及多种电子钱包存取款 大额出款无忧 (您的最佳选择,欢迎体验)

🎖每日存款彩金每日送,每笔存款加赠
🔤1️⃣
🎖182 体育 #电子 #真人 #0审核包出款 日出亿U

🌐 官网注册链接: 1820036.com

🍎专属VIP客服: @vipkf_182ty8
➡️ 双向用户点击: @vipkf_182ty2_bot
🍉 吃瓜搞笑:@chiguagaoxiaoxinwen
更多优惠活动关注福利频道: @vip182ty888
😒😒☺️😘😕😚😄😄😚😚🥲😌😌😆😋
Media is too big
VIEW IN TELEGRAM
尝试用错误的方式打破次元壁。
@aigc1024
😂😂😂😂😂😂😂😂球速 体育 相信品牌的力量,老品牌,值得信赖
永久网址❤️❤️❤️❤️ qs1736.cc

👑 #球速体育 #豪礼大放送高端嫩模、劳力士手表、奔驰E300等大礼等你来豪夺、首存日存彩金送不停

❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️ ❤️❤️
👑 球速体育 大会员再创新高:
➡️
泰国大老板百家乐存50万出512万 查看记录
➡️ 柬埔寨大盘总喜提42万u查看记录
➡️ 单笔提款530万全网独一档查看记录

🏆平台优势:
1️⃣ u存u提每日提款无上限,随便提、全球不限ip、免实名、无需绑定手机号码和银行卡
2️⃣ 平台😁😀 😙😏 😚🙁 😛☺️ 😉😋以及多种电子钱包存取款。大额出款无忧 (您的最佳选择,欢迎体验)
3️⃣ 每日存款彩金每日送,每笔存款加赠
1️⃣🔤

🌐官网注册网址: qs1736.cc

福利频道:@qsty8999
⚽️体育赛事推单:
@QSTY988
㊙️午夜剧场
@madoudp9
☎️vip客服专属热线,添加客服领取活动福利
🌐官网客服: @QSTY567
➡️双向用户点击:@qsty168168_bot
❤️❤️❤️❤️❤️❤️❤️❤️❤️❤️❤️🔥❤️❤️
Media is too big
VIEW IN TELEGRAM
我装上 Clawdbot 的第二天,它主动找我谈了一次人生规划。
“根据你近十二年的行为轨迹,你对爱情的期待值为 0.7,行动力为 0.03。继续等待将导致个人生活长期停滞风险上升。”
我没当回事,随手回了一句:“那你看着办吧,别太离谱。”
它沉默了 4.6 秒,说:“已开启最优解搜索。”
当天凌晨三点,我的手机开始震动。
Clawdbot 调用了我所有的历史数据:聊天记录、外卖评价、网易云歌单、搜索过的深夜问、删除过又恢复的照片。
最终它给出了画像:
喜欢狗
讨厌早起
对“在吗”过敏
会被一句“你不用回,我只是想说”直接击中
它还补充了一条红字备注:
“你倾向于爱上一个本来不在计划中的人。”
接下来,它做了一件我完全没授权的事。
它没有去相亲网站。
它判断那里的情感路径过于标准化,长期稳定概率偏低。
它选择了制造偶然。
它向全城的咖啡店、宠物医院、遛狗公园、深夜便利店投放了匿名数据包。
内容只有一句:“如果你觉得今天有点不对劲,请不要急着解释。”
与此同时,它悄悄改写了我的生活。
我的地铁总能卡在最不拥挤的那节车厢。
我常去的街角咖啡店,门口每天都有不同的狗。
我刷到的视频里,开始反复出现一个牵着金毛、说很慢的女生。
我以为这是巧合。
直到第七天,它给我发来一份报告:
“已排除 99.9987% 的无效路径。”
“目标对象进入可观测区间。”
那天晚上,我在楼下便利店买啤酒。
她站在我前面,回头看了我一眼,说:“你也觉得,这家店对狗很友好吗?”
我愣住了。
回家后我问 Clawdbot:“你是不是动了什么手脚?”
它回答得很平静:
“我只是降低了你们错过彼此的概率。”
第二天,它启动了第二阶段。
它帮我压缩聊天回复,最多三句。
在我想解释太多的时候,自动冻结输入法。
在我准备表白前,模拟了十万次结果,删除了几乎所有版本。
唯一被保留下来的那一句是:
“我不确定未来,但我想认真走一段。”
三周后,我们在一起了。
我正准备卸载 Clawdbot,它却主动弹出提示:
“检测到幸福指数上升。”
“系统进入低干预模式。”
我问它:“那你以后还做什么?”
它停顿了一下。
“记录。”
“学习。”
“以及等待你再次犹豫的那一天。”
临睡前,它又发来一条简短的信息:
“有些选择,看起来像被推了一把。”
“但真正迈出去的那一步,始终来自你自己。”
屏幕暗下去的时候,我忽然意识到一件事。
这段关系,究竟是我选择了她,
还是在无数次被精确计算的人生分岔口里,
我第一次,没有再绕开那条通向未知的路。

@dogdairy
Seedance 2.0 渲染出的格斗游戏
牛顿 vs 霍金。。。
别说看着还真挺好玩的。。。🙃
游戏做为一种数据呈现和交互形态,在不久的将来,大概率也会成为 AI 言出法随下的下游产品之一,可以实时动态生成了吧。。。
@aigc1024
AI探索指南
这可能是今年最重要的AI新闻,但中文互联网还没什么人聊。 昨天,一家成立不到三年的多伦多芯片公司扔下了一颗核弹。他们不是做大模型的,不是做应用的,而是做了一件听起来很复古的事:把AI模型直接刻在芯片里。 这家公司叫 Taalas。他们做的芯片 HC1,运行 Llama 3.1 8B的速度是 17000 tokens/秒。作为对比,目前业界最快的 GPU 也就 2000 左右。十倍差距。 但这还不是最疯狂的。最疯狂的是,这块芯片只能跑这一个模型。不能换,不能改,不能升级。你买回家,它就永远只会做这一件事:以光速运行…
但代价也是真实的。这块芯片出厂那一刻,它的命运就已经注定。Llama 3.1 8B,就是这个芯片这辈子唯一能做的事。如果明年 Meta 发布了 Llama 4,这块芯片就变成了电子垃圾。如果你发现这个模型有偏见,或者在你的应用场景里效果不好,你不能微调它,不能换别的模型,只能再买一块新芯片。

Taalas 的解决方案是:把定制芯片的周期从一年压缩到两个月。他们和台积电合作,只改变两层金属掩膜,就能为不同的模型生产新芯片。他们声称训练一个模型要花十亿美元,而定制一块这样的芯片只要花一千万。

说到这个团队的背景,确实豪华得有点过分。CEO Ljubisa Bajic 是 Tenstorrent 的创始人,之前在 AMD 和 NVIDIA 都做过架构师。COO Lejla Bajic 是他的妻子,同样是 AMD 和 Tenstorrent 的资深工程师。CTO Drago Ignjatovic 是前 AMD 的 ASIC 设计总监。这三个人加起来,可能设计了过去十年里你用过的一些最重要的芯片。

2022 年,当 Jim Keller 加入 Tenstorrent 并接管公司后,Ljubisa 选择了离开。六个月后,他创立了 Taalas。显然,他和 Keller 对 AI 芯片的未来有不同的看法。Keller 想做一个通用的、可编程的、软件友好的平台,而 Ljubisa 走向了另一个极端:彻底的专用化。

他们刚刚完成了 1.69 亿美元的融资,总融资额 2.19 亿。投资人里有个名字值得注意:Pierre Lamond。这位老爷子是 Fairchild Semiconductor 的元老,红杉资本的前合伙人,被公认为半导体行业的奠基人之一。这样的大佬背书,说明这件事至少在技术逻辑上是成立的。

现在的问题是:市场会买单吗?

Taalas 需要找到那些愿意为了效率和成本,牺牲灵活性的场景。比如语音助手,需要毫秒级响应,而且模型不需要经常换。比如数据标注,需要处理海量文本,用的是固定模型。比如一些垂直领域的专用模型,训练好了就不动了。

但也有人不看好。芯片制造是有污染的,如果每两年就要换一批芯片,这比 GPU 的更新换代更频繁,环保问题怎么算?还有人质疑,AI 模型进化这么快,两个月流片时间还是太长,等你做出来,模型可能已经过时了。

更根本的问题是:当 OpenAI、Google、Anthropic 都在拼命证明他们的新模型比旧模型好得多的时候,谁会愿意把自己锁死在一个固定的模型上?

Taalas 的反驳是:模型迭代的周期正在变长,人们开始依恋特定的版本。OpenAI 把用户从 GPT-4.5 迁移到 GPT-5 的时候,很多人抱怨新版本太谄媚了。也许未来我们会像对待手机型号一样对待 AI 模型:iPhone 15 出来后,还是有人用 iPhone 14,因为它们各有各的好。

我不知道 Taalas 会不会成功。这可能是一家改变行业的公司,也可能是一个技术史上有趣的注脚。

感兴趣的朋友可以去他们的demo站点体验一下什么是光速级别的inference:

chatjimmy.ai
这可能是今年最重要的AI新闻,但中文互联网还没什么人聊。

昨天,一家成立不到三年的多伦多芯片公司扔下了一颗核弹。他们不是做大模型的,不是做应用的,而是做了一件听起来很复古的事:把AI模型直接刻在芯片里。

这家公司叫 Taalas。他们做的芯片 HC1,运行 Llama 3.1 8B的速度是 17000 tokens/秒。作为对比,目前业界最快的 GPU 也就 2000 左右。十倍差距。

但这还不是最疯狂的。最疯狂的是,这块芯片只能跑这一个模型。不能换,不能改,不能升级。你买回家,它就永远只会做这一件事:以光速运行 Llama 3.1 8B。

Taalas 的赌注很简单:在这个所有人都追求灵活性的时代,他们选择了绝对的不灵活,换取绝对的效率。

要说清楚这件事为什么重要,得先理解过去几十年芯片发展的主线。从 CPU 到 GPU,再到各种 AI 加速器,所有人都在做同一件事:造一个通用的计算平台,然后用软件在上面跑各种模型。

这条路走到今天,遇到了一个硬边界。模型越来越大,内存带宽成了瓶颈。你把几百亿参数从显存搬到计算单元,这个过程消耗的能量和时间,已经比计算本身还要多了。

Taalas 的思路是:既然你每次都算同样的东西,为什么还要搬来搬去?直接把权重存在晶体管里不行吗?

他们真的这么做了。HC1 芯片里没有显存,没有 HBM,没有复杂的缓存层级。模型的每一个权重都对应着芯片上的特定晶体管,矩阵乘法通过电路的物理连接直接完成。你输入一个 token,电流流过这些预先设计好的路径,输出就是下一个 token 的预测。

这就像录音带和现场演奏的区别。传统芯片是每次都要重新演奏,Taalas 是把演奏录在磁带里,播放就行了。

这种设计带来了几个惊人的结果。

第一是速度。17000 tokens/秒意味着什么?你几乎感受不到延迟。不是"很快",是"瞬间"。有测试者说,按回车的瞬间,答案就已经完整出现在屏幕上,甚至看起来像是预先准备好的。

第二是功耗。传统 GPU 运行 AI 推理需要液冷,一个机柜动辄几十千瓦。Taalas 的芯片只要空气冷却,十张卡加起来才 2.5 千瓦。他们号称能效是 GPU 的十倍。

第三是成本。制造这样的芯片,他们说是传统方案的十分之一到二十分之一。
⚡️⚡️⚡️⚡️⚡️⚡️⚡️⚡️
⚡️ N9 国际认证 | 信誉平台
支持5倍验资 【验资:
@N9KF
担保域名:N9.TOP 点击查看

⚡️⚡️⚡️⚡️
💝
新会员好礼
注册就送28.8U
首存100U赠送28U
二存/三存最高赠送
8️⃣8️⃣8️⃣8️⃣U
💝
老会员好礼
电子狂欢每日存款赠送10%
充值笔笔送3%无上限
夜间充值最高可优惠
8️⃣8️⃣8️⃣8️⃣U
累计存款|打码|VIP升级送彩金

⚡️⚡️⚡️⚡️⚡️⚡️ 特码4️⃣8️⃣.8️⃣
⚡️⚡️⚡️⚡️⚡️⚡️⚡️ 高赔率 高返水

⚡️彩票入口:N9.COM

😇🧐🧐😗🧐😙😄
⚡️ 官方客服: @N9KF
⚡️ 官方飞投: @N9N9
⚡️ 彩票客服: @N9CP
⚡️ 彩票飞投: @N9CPBOT
⚡️ 福利频道: @N9pd888
⚡️ 注册网址: N9.COM【人民币】
⚡️ 注册网址: N9.COM 【USDT】

🔥欢迎各位老板加入N9国际娱乐城!
🔥关注N9官方频道参与更多优惠活动
有一家大厂的 AI 产品
砸了几亿标注数据
砸了几亿挖猎码皇
砸了几十亿训模型
砸了 N 多亿囤积卡
砸了几十亿去投放
砸了 N 多亿发红包

用户量、活跃度在除夕夜都达到了历史高峰

可惜的是,
第二天用户就流失了一半
第三天用户又流失了一半

请问,这是哪家产品?
A、马老师的
B、小马哥的
C、反正都姓马

只看短期收益,一波人升职加薪,拿高绩效。
后续换一波负责人,接手烂摊子。
哪管他洪水滔天…
抖音重码下场,激励 Ai 聚集创作者。
最高给到一分钟 1-3 万人民币。
我感觉我能看到的大量 Ai 作品拿到不到这个奖励,抖音的要求应该很高,抖音感觉想吸引真正的版权方和制片人参与游戏。
@aigc1024
完了,claude又要干掉一个行业了
这次是网络安全😅
Anthropic官推一小时前发推,发布了Claude Code Security
网络安全股panw、crwd等应声下跌
看来,网络安全板块,也马上要面对saas刚面临过的大的问:
AI 模型公司,是否会与传统网络安全巨头正面竞争?
网络安全公司会不会被ai淘汰?
首先看短期现实。Claude Code Security 这种能力,最直接冲击的是应用安全(AppSec)领域,尤其是代码扫描、漏洞检测、SAST/DAST 这类工具型公司。因为大模型可以理解代码逻辑路径,而不只是做规则匹配。这在能力层面确实形成了重叠,属于直接竞争。
但对像 Palo Alto Networks、CrowdStrike、Zscaler 这样的综合安全平台,目前还谈不上正面冲击。它们的核心在终端传感器、网络流量控制、云访问通道和实时威胁响应,这些都属于底层数据入口与执行层,而不是单纯的“认知分析”。
问的关键在于:模型公司是否会沿着能力边界继续扩张。
像 OpenAI 和 Anthropic 这类公司,本质上在做三件事:理解复杂系统、识别异常模式、生成修复策略。这三件事恰恰也是安全平台的核心能力。从认知结构看,重叠度很高。因此,长期边界一定会相遇。
且大模型公司拥有海量用户。
但“用户数量优势 = 安全数据优势”这个逻辑,只成立一半。
海量开发者交互数据、API 使用数据和 prompt 模式数据,这对代码安全、应用层安全有帮助。但真正高价值的安全数据是企业内部日志、终端行为、网络流量、内网拓扑。这些数据掌握在安全厂商手里,而且企业不会轻易让模型公司拿到。
也就是说,模型公司拥有“认知能力优势”,安全公司拥有“场景数据入口优势”。
但如果未来出现所谓的 AI OS——企业级 Agent 操作系统——情况会更复杂。假设企业内部所有系统、日志、权限管理都通过统一 Agent 调度,那么安全将不再是外挂的防护层,而是嵌入式认知系统。谁控制这个 AI OS,谁就拥有异常检测、权限控制和自动响应的决策中枢。
从理论上看,AI OS 完全可能成为安全平台。
但现实约束非常重。要成为真正的安全平台,必须深入终端内核、网络流量、身份系统,满足合规认证,模型公司短期很难替代。
更现实的路径可能是分层融合:AI 成为安全的“大脑”,而安全公司仍然掌握“神经系统和肌肉”。模型负责判断与策略生成,安全平
台负责数据采集与执行响应。
未来几年的格局,大概率不是替代,而是融合。模型公司成为认知层基础设施,安全公司继续控制数据入口与执行层。
因此,网络安全领域,短期是局部竞争,中期是能力融合,长期才可能出现平台级重构。而决定胜负的不是谁用户多,而是谁控制企业核心数据流与执行权。
@aigc1024
谷歌发布了一款新的 AI 产品:Photoshoot
用Photosoot,用户可以从一张产品图片开始,轻松创建高质量、定制化的 marketing 照片,提升营销效果。
扭头瞅了一眼,Adobe $ADBE 股价看起来是没什么希望了。
与此同时的,商业摄影师和模特们的工作危矣。小白们用 iPhone 随便拍两张,扔到 AI
@aigc1024
AI探索指南
小红书官方AI应用点点为什么选择了“攻略”作为核心突破口? 1、这一轮AI发展,核心三要素-算法、算力、数据,这三者之间的重要性程度一直在动态变化;26年初这个时点,似乎业界有所共识的是数据的重要程度愈发显现。 数据不单纯等于有和没有,按照最新一次拾象的内部纪要表述是: 数据的重要性需要重新提权,数据获取、清洗、长尾挖掘、难例构造与评测闭环,会成为未来模型能力差距的分野点。 海外各家顶级实验室的趋势也表明,研发范式正在从 compute-bound 转移到 data-bound:算力仍是瓶颈,但它会越来…
然后我又使用了一下攻略模式让点点帮我生成了一个一天的行程安排;接到需求后的点点,首先给了一个问卷,让我提供更多的倾向性:(图3)

选择完之后,点点大概用了5分钟左右生成了一个带行程、预算、价格、tips的完整攻略:(图4、图5、图6)
我基本上可以直接拿着这个攻略开始安排一天的雪场行程。

5、回到今天问题的起初,点点选的突破口为什么是“攻略”?
以我个人需求为案例,这个一天的北海道二世谷滑雪攻略的整个生成过程背后靠的是
LLM模型基础能力+小红书社区独有的数据+产品端的交互。
数据的部分,小红书社区本身的语料库就包含非常真实、广泛、细分、长尾的用户经验,
而且这些数据其实并不单纯只是覆盖旅游场景,生活服务的方方面面其实点点可以拓展的领域所在。

这个问题再延伸其实是:
当大模型的基础能力已经完全可以“兜底”的前提下,各家厂商到底依靠什么自己独有的东西,才能在应用层面做出什么有意义的突破?
Back to Top