近年来,随着信息时代的数据大爆炸以及人工智能浪潮的到来,尤其是大模型技术的广泛应用,其训练和推理所需处理的数据量呈指数级增长。而基于“存储-计算分离”原理的冯·诺依曼架构虽独具优势,但在AI浪潮中已显疲态,存在着不容忽视的局限。
在传统冯・诺依曼架构中,数据需要在存储单元与计算单元间频繁搬运,导致大量的资源被浪费在数据搬运这一环节上。根据英特尔的研究表明,当半导体工艺达到7nm时,数据搬运功耗高达35pJ/bit,占总功耗的63.7%。数据传输造成的功耗损失越来越严重,限制了芯片发展的速度和效率,形成了“功耗墙”问题。
此外,在冯·诺依曼架构中,存储器与处理器是两个完全分离的单元,处理器根据指令从存储器中读取数据、完成运算,并存回存储器。但随着人工智能、大数据等新兴技术的迅猛发展,计算任务对数据处理的速度和规模提出了前所未有的高要求。而当下的存储器的数据访问速度跟不上计算单元的数据处理速度,二者之间形成了巨大的性能差距,“内存墙”问题日益凸显。
面对大模型推理对算力需求的持续拉动,如何攻克“功耗墙”“内存墙”等难题已然成为了工业界和学术界的焦点问题,一场旨在突破现有算力瓶颈的革命正蓄势待发。
在此背景下,“存算一体”正试图用一场颠覆式创新打破这一僵局。近年来,在半导体工艺持续突破与AI算力需求爆发的双重推动下,存算一体技术迎来了新的发展机遇。
从原理上来看,存算一体的核心是将存储功能与计算功能融合在同一个芯片上,直接利用存储单元进行数据处理——通过修改“读”电路的存内计算架构,可以在“读”电路中获取运算结果,并将结果直接“写”回存储器的目的地址,不再需要在计算单元和存储单元之间进行频繁的数据转移,消除了数据搬移带来的消耗,极大降低了功耗,大幅提升计算效率。
正是基于这样的特性,存算一体有力地突破冯·诺依曼架构所面临的瓶颈限制。
存算一体属于非冯诺伊曼架构,在特定领域可以提供更大算力(1000TOPS以上)和更高能效(超过10-100TOPS/W),明显超越现有ASIC算力芯片。除了用于AI计算外,存算技术也可用于感存算一体芯片和类脑芯片,代表了未来主流的大数据计算芯片架构。
近年来,大模型的蓬勃发展与广泛应用,其对强大算力和高存储带宽提出了迫切需求。而存算一体技术凭借其解决数据搬运难题、显著提升计算效率的优势,与大模型的发展需求完美契合。与此同时,大模型计算的应用场景正从云端逐步向端边侧拓展延伸,这一趋势为存算一体技术带来了更为广阔的发展空间。
面对极具潜力且规模不断扩张的市场前景,存算一体芯片成为了科技领域备受瞩目的焦点。越来越多的企业正竞相投身存算一体芯片领域,并不断加快布局进程。国内诸如恒烁股份、亿铸科技等企业,均依托自身优势在不同技术路线上积极开展探索,力求在存算一体芯片市场中占据一席之地。