【产通社,1月22日讯】英伟达等公司在高端图形处理单元(GPU)芯片方面的创新为AI训练提供了坚固基石。在应用过程中,经过训练的ChatGPT等生成式AI工具会吸纳新信息进行推理并生成回应,如撰写文档、生成图像等。这类AI工具可应用于医疗诊断、自动驾驶、自然语言理解等领域。 随着AI模型的广泛应用,需要进行推理计算的硬件日益增多,对推理芯片的需求也将“水涨船高”。国际数据公司(IDC)的报告显示,未来几年,推理端的AI服务器占比将持续攀升。预计到2027年,用于推理的工作负载将占据七成以上。 Cerebras、Groq和d-Matrix等初创公司,以及老牌计算机芯片公司(AMD)和英特尔纷纷推出了AI推理芯片。这些公司敏锐捕捉到了AI推理芯片“大显身手”的契机。 Cerebras公司晶圆芯片 Cerebras公司2024年8月28日推出的AI推理芯片在Llama 3.1-8B模型上实现了1800token/秒的推理速度;在Llama 3.1 70B上实现了450token/秒的推理速度,约是英伟达GPU推理速度的20倍。Token指AI处理文本的最小单元或基本元素,如一个单词、一个字符等。 Cerebras公司拥有创新的AI芯片设计方案,其晶圆级引擎(WSE)宛如一座庞大的“计算工厂”,最大特点是尺寸惊人——单个芯片几乎占据了一整块晶圆的面积。在这个超大芯片上,计算单元和内存单元高度集成,形成一个密集的网格结构。这样的设计,让数据能在极短距离内,于计算单元和存储单元之间传输,从根本上降低了数据移动成本,解决了GPU推理无法避免的内存带宽瓶颈。此类大芯片能更快处理信息,从而在更短时间内给出答案。 GroqCloud速度比GPU快一个量级 2024年2月,Groq公司就发布了自己的AI推理芯片GroqCloud。它在Llama 3.1 70B模型上实现了250token/秒的推理服务,速度比GPU几乎提升了一个量级。 d-Matrix聊天机器人芯片 2024年11月19日,硅谷初创公司d-Matrix首款AI推理芯片Corsair已开始出货,旨在提供聊天机器人和视频生成等服务。 Corsair在单服务器环境下,能让Llama3 8B模型实现60000token/秒的处理能力,且每个token的延迟仅为1毫秒,充分彰显了其在高速处理大规模数据方面的卓越性能。更值得一提的是,与GPU及其他方案相比,Corsair能在提供同等性能的同时,大幅降低能耗和成本。 AI推理芯片将目光瞄准了更广泛的客户群体,旨在优化推理计算的速度与效率,尤其擅长智能建议、语音识别、自然语言处理等领域。一旦推理速度提升至每秒数千token,AI模型将能在眨眼之间完成复杂问题的思考与回答过程。这不仅能让现有应用的交互效率实现质的飞跃,还将带来一系列令人耳目一新的人机交互场景。例如,在语音对话领域,延时将被压缩至毫秒级,能实现近乎自然的对话体验;在虚拟现实/增强现实领域,AI将能实时生成和调整虚拟环境、角色对话以及交互逻辑,给用户带来个性化、沉浸式体验。(镨元素)
|