联系邮箱
operation@longma-software.cn
亚马逊AWS与Cerebras达成战略合作,携手突破大模型推理内存瓶颈
作者:泷码软件产业网编辑部
3月13日,全球云计算巨头亚马逊AWS与AI芯片初创公司Cerebras正式对外宣布达成多年期战略合作,双方将聚焦“解耦推理”技术的联合研发,致力于打破当前大模型推理过程中普遍存在的内存瓶颈,大幅提升大模型推理效率,推动AI算力基础设施的迭代升级,为企业级大模型应用落地提供更高效的算力支撑。此次合作不仅是AWS在AI算力领域的重要布局,也是Cerebras继获得OpenAI背书后,进一步巩固其在AI芯片领域地位的关键举措,引发全球AI行业与半导体行业的高度关注。
根据双方签署的合作协议,AWS将在其全球分布的数据中心大规模部署Cerebras芯片,并创新性地将其与AWS自研的Trainium芯片进行组合部署,针对不同企业的算力需求,推出分层定价的推理服务体系。其中,Cerebras芯片与Trainium芯片的组合方案定位高端市场,主打高速推理能力,主要面向对大模型响应速度要求极高的金融、科技、医疗等行业客户,能够满足复杂场景下的实时推理需求;而纯Trainium芯片提供的推理服务则以更具性价比的价格,覆盖中小型企业及基础推理场景,降低中小企业接入大模型技术的算力门槛。
作为此次合作的核心亮点,Cerebras芯片的性能优势十分突出。据行业实测数据显示,Cerebras芯片的推理速度相比当前市场主流的英伟达GPU快25倍,尤其擅长处理大模型推理阶段的“解码”任务——这一任务直接决定了大模型的响应速度,也是当前大模型落地应用中的核心痛点之一。无论是企业客服机器人的实时交互、金融领域的风险预测,还是医疗行业的影像分析,都需要大模型具备高效的解码能力,而Cerebras芯片的介入,将有效解决这一难题,帮助企业提升服务效率、降低运营成本。
值得注意的是,此次AWS与Cerebras的合作,距离Cerebras与OpenAI签署百亿美元合作协议仅过去两个月。今年1月,OpenAI宣布与Cerebras达成长期合作,计划利用Cerebras芯片提升大模型训练与推理效率,此次再获亚马逊AWS的战略背书,充分彰显了Cerebras芯片在技术层面的核心竞争力,也使其在AI芯片领域的影响力进一步扩大,有望打破当前英伟达在AI芯片市场的垄断格局。
泷码软件产业网编辑部分析认为,AWS与Cerebras的战略合作,将从技术、市场、产业三个层面推动AI行业的发展。在技术层面,“解耦推理”技术的研发与落地,将打破内存瓶颈对大模型推理效率的限制,推动大模型技术向更高效、更易用的方向迭代;在市场层面,分层定价的推理服务体系,将满足不同规模、不同行业企业的算力需求,进一步激活企业级大模型应用市场;在产业层面,此次合作将推动AI芯片与云计算的深度融合,带动整个AI算力产业链的升级,加速AI技术在各行业的规模化落地。未来,随着双方合作的深入,有望形成“芯片+云计算+大模型”的协同生态,为全球AI产业发展注入新的动力。
新闻来源:AWS与Cerebras联合声明、半导体行业观察