Transformer与RNN合体,谷歌打下显存门槛,解锁超长上下文
36氪 - 最新资讯频道•4/17/2026•tech
最近,谷歌跟内存干上了。
上个月,谷歌的 TurboQuant 研究曾经引发过一场行业地震,其宣称能直接把大模型最吃显存的 KV Cache 压缩几倍,让市场开始担忧未来对内存的需求,引发了一波内存股暴跌,后续还有不小的学术争议。
这个星期,又有一篇谷歌论文引发了 AI 圈的关注,作者表示他们提出的方法解决了大模型处理长文本时的「内存瓶颈」(又来了),但实施的是完全不同的技术路线。
他们新开一条道