在Transformer内部造一台计算机
一篇充满争议的文章,Percepta AI把WebAssembly解释器编译进Transformer权重,让模型的前向传播本身就是程序执行,不依赖任何外部工具就能进行数学计算。
流程是:C代码→WASM→将WASM解释器编码进权重→前向传播逐token输出执行轨迹
争议的点在于:权重不是训练出来的,而是直接编译进去的,更像“用一种奇特方式写了个程序”,不是真正的AI学习;可微分性并没有证明,很可能LLM也没法学习这个计算过程;与原生WASM相比可能慢数千倍;
原文:https://www.percepta.ai/blog/can-llms-be-computers

AI探索指南 OpenClaw小龙虾🦞
 
 
Back to Top