内存仅需1/6?谷歌AI新算法引发存储股降温
/03/31 有观点认为,新技术“TurboQuant”将影响存储器的需求动向 美国谷歌发布的AI(人工智能)相关算法正备受关注。
该技术可以将AI在推导答案的“推理”过程中使用的内存占用减少到六分之一。
也有观点认为,这将影响随着AI普及而持续增加的存储芯片的需求动向。
处理性能提高至8倍 谷歌的研究机构Google Research于3月24日公布了名为“TurboQuant”的算法。
这是在推理时压缩处理数据的技术,可将内存占用减少至六分之一以下。
据介绍,在使用相同计算平台的情况下,推理时的部分处理性能最多可提高至8倍。
TurboQuant的论文于2025年4月在评审前论文的投稿网站上公开。
该论文被将于2026年4月举办的国际学会采纳,Google Research在官网上重新公开了详细内容,引起人们的关注。
应用范围十分广泛。
AI在生成文章时,会将上下文作为短期记忆保存、参考并生成回答。
文章越长,短期记忆的数据就越庞大。
通过特殊技术压缩该数据,可以高效生成回答。
研究人员在论文中将TurboQuant评价为“计算机友好”(Accelerator Friendly)。
这是因为计算机更易于发挥负责AI处理的图形处理器(GPU)等性能。
数据压缩技术一直都存在。
不过,存在压缩得越厉害、AI的准确度越低的课题。
TurboQuant提高了数据转换的效率,并通过数学校正维持了计算准确度。
适用于任何类型或格式的数据,也不依赖于AI模型。
理论上可以说是通用的方法。
目前,将TurboQuant应用到实际服务中还需要进一步的研发。
如果能够实现,就可以在内存有限的设备上完成复杂推理工作,还可以提供高精度的搜索服务。
成为半导体存储器概念股波动的主要原因 随着AI的普及,用于短期存储的高带宽存储器(HBM)的需求急剧增加。
韩国SK海力士、韩国三星电子、美国美光科技等半导体企业供应不足,还波及普遍的存储器短缺,导致个人电脑等最终产品的价格上涨。
如果谷歌开发的数据压缩技术得到广泛应用,存储器的搭载量有可能比预想得要少。
随着这一联想在股票市场扩散,存储器制造商的股价在Google Research发表消息后下跌了约10%。
美国云服务商Cloudflare的首席执行官马修·普林斯在X(原推特)上发文称,“这项技术就像 DeepSeek一样”。
他解释说,这让人联想到2025年1月,当中国AI初创企业DeepSeek发布低成本AI模型后,AI相关股票曾一度集体下跌的情形。
“DeepSeek冲击”最终只是暂时性的,此后包括英伟达在内的AI概念股仍不断刷新历史新高。
半导体存储器相关股票在过去6个月中大约上涨了一倍,也有受到获利抛售压制的原因。
市场目前正密切关注谷歌的新技术是否会改变AI推理方式。
日本经济新闻(
中文版: 日经中文网)江口良辅、杉山翔吾
原文链接: 日经中文网
