为适应AI应用,计算机芯片需进行更多并行计算。图片来源:谷歌公司 |
【科技创新世界潮】(337)
◎本报记者 刘 霞
美国开放人工智能研究中心(OpenAI)首席执行官山姆·奥特曼等人认为,人工智能(AI)将从根本上改变世界经济,拥有强大的计算芯片供应能力至关重要。芯片是推动AI行业发展的重要因素,其性能和运算能力直接影响着AI技术的进步和应用前景。
英国《自然》杂志网站在近日的报道中指出,工程师正竞相开发包括图形处理单元(GPU)等在内的尖端芯片,以满足未来AI的计算需求。
GPU加快机器学习运算速度
GPU是英伟达公司标志性的计算机芯片。传统中央处理单元(CPU)按顺序处理指令,而GPU可并行处理更多指令,因此可分布式训练程序,从而大大加快机器学习的运算速度。
2022年,英伟达公司Hopper超级芯片在MLPerf上击败了包括图像分类和语音识别在内所有类别的竞争对手。MLPerf是国际上最权威、最有影响力的AI基准测试之一,被誉为“AI界奥运会”。
今年3月,英伟达正式展示了性能更优异的新一代AI芯片Blackwell。它拥有2080亿个晶体管,是英伟达首个采用多芯片封装设计的GPU。随着技术发展,GPU变得越来越大,如果不能更大,就把更多GPU组合在一起,变成更大的虚拟GPU。Blackwell就是在同一个芯片上集成了两个GPU,新架构将通过芯片与芯片间的连接技术,一步步构建出更大型AI超算集群。
如果要训练一个拥有1.8万亿个参数的GPT模型,需要8000块Hopper芯片,耗能15兆瓦,历时3个月。如果使用Blackwell芯片,只需2000块,耗能4兆瓦,就能在同样的时间内完成任务。
AI芯片市场持续增长,英伟达目前供应了其中80%以上的产品。2023年,该公司售出55万块Hopper芯片。近日,该公司市值首次突破3万亿美元,超越苹果,仅次于微软,成为全球市值第二高的公司。
多种芯片竞相涌现
尽管GPU一直是AI革命的核心,但它们并非是唯一“主角”。随着AI应用的激增,AI芯片的种类也在激增,现场可编程门阵列(FPGA)可谓“一枝独秀”。
FPGA是一种在计算和数字电路领域广泛应用的硬件设备。它以独特的可编程性和灵活性,成为嵌入式系统、高性能计算处理等多种应用的理想选择。
这就像搭建乐高积木,工程师可将FPGA电路一个接一个地构建到他们能想象的任何设计中,无论是洗衣机传感器还是用于引导自动驾驶汽车的AI。不过,与拥有不可调节电路的AI芯片(如GPU)相比,FPGA运行速度相对更慢、效率更低。但FPGA对处理某些任务(如粒子对撞机产生的数据)很有用。英伟达加速计算集团产品营销总监戴维·萨尔瓦托指出,FPGA的易编程性也对原型设计很有帮助。
张量处理单元(TPU)则是谷歌公司专为神经网络机器学习而定制的芯片,旨在执行矩阵计算和张量操作。TPU作为谷歌深度学习框架TensorFlow的加速器于2016年首次推出,其设计目标是提供低功耗、高效能的矩阵运算,以满足大规模机器学习和神经网络训练的需求。TPU在性能与能效之间取得了良好平衡。它们的功耗相对较低,这对于大规模数据中心和在移动设备上的应用至关重要。
此外,元宇宙平台也在独立开发自己的芯片。谷歌、英特尔和高通成立了UXL基金会,用以开发一套支持多种AI加速器芯片的软件和工具,以此对抗英伟达的GPU。
当然,GPU等AI芯片的兴起并不意味着传统CPU的终结,两者互相取长补短已成大势所趋。例如,有一个版本的Blackwell芯片就让GPU与CPU携手;世界上最强大的超级计算机之一、位于美国田纳西州橡树岭国家实验室的“前沿”也依赖CPU和GPU的结合,来执行高性能计算。
考虑到过去十年芯片领域翻天覆地的变化,工程师们可能很难预测芯片的未来。将来可能会研制出使用光而非电子的光学芯片,或量子计算芯片,而进一步提升芯片性能,将加速AI在科学领域的应用。