巨型微芯片能否异军突起?

Mitch Leslie

工程(英文) ›› 2024, Vol. 36 ›› Issue (5) : 6 -8.

PDF (1000KB)
工程(英文) ›› 2024, Vol. 36 ›› Issue (5) : 6 -8. DOI: 10.1016/j.eng.2024.04.005
新闻热点

巨型微芯片能否异军突起?

作者信息 +

Can Giant Microchips Become a Big Deal?

Author information +
文章历史 +
PDF (1023K)

引用本文

引用格式 ▾
Mitch Leslie. 巨型微芯片能否异军突起?[J]. 工程(英文), 2024, 36(5): 6-8 DOI:10.1016/j.eng.2024.04.005

登录浏览全文

4963

注册一个新账户 忘记密码

几十年以来,微芯片组件造得越来越小,制造商们也一直以此为荣。例如,晶体管在过去50年间缩小到了原尺寸的约千分之一[1]。然而,位于美国加利福尼亚州桑尼维尔市的Cerebras Systems公司却造出了巨型微芯片并引以为傲。其“晶圆级引擎2号”(Wafer Scale Engine-2,简称WSE-2)芯片由单个硅片制成,面积达46 225 mm2,相当于英伟达(Nvidia)标准微处理器的56倍(图1)[2]。
之前也有其他公司尝试制造巨型芯片,但都以失败告终[3]。人工智能(AI)的发展导致对计算能力的需求呈爆炸式增长,而为了满足这一增长需求,Cerebras公司选择了这种非常规的方法[4]。该公司声称,WSE-2的存储和计算核心(或处理单元)彼此靠近,从而提高了速度和效率,其速度比标准图形处理器(GPU)快数百倍,而GPU主要用于为大多数运行AI模型的计算机提供动力[5]。与之前失败的尝试不同,Cerebras公司的产品已经上市销售。2019年,位于美国伊利诺伊州莱蒙特的美国能源部阿贡国家实验室成为该公司Cerebras系统(CS)-1 AI加速器的首家客户,该AI加速器围绕一个与WSE-2等大的前身产品[6]而构建。此后,该实验室又增设了CS-2,这是一种以WSE-2为核心的新型加速器[7]。2023年,Cerebras公司将64台CS-2连接起来,为阿拉伯联合酋长国阿布扎比的科技公司G42建造了一台AI超级计算机,据称建造过程仅用了十天时间(图2)[4,8]。Cerebras公司已宣布计划为G42公司再建造八台这样的超级计算机[4]。
Cerebras公司是第一家提供晶圆级集成(WSI)产品的公司,该产品将完整的电路置于单个硅晶圆上[9]。不过,研究人员正在研发可利用WSI优点的其他设计[1011]。美国伊利诺伊大学厄巴纳-香槟分校电气与计算机工程教授Rakesh Kumar和其同事曾在2021年发表过一篇论文,介绍了一项这种设计[10],他说:“我们希望在一块芯片上整合尽可能多的计算能力。”
目前尚不清楚是否会有其他巨型芯片投入生产,也不清楚这类产品能否在半导体市场上抢占更大份额。巨型芯片及其配套元件造价昂贵,将在提高AI性能方面与传统方法展开激烈竞争[12]。普林斯顿大学(美国新泽西州普林斯顿市)电气与计算机工程教授Naveen Verma说,“Cerebras公司的确取得了一些关注”,但从长远来看,“计算领域很难朝着这个方向发展”。Verma与他人共同创办了一家名为EnCharge AI的公司,该公司位于美国加利福尼亚州圣克拉拉市,不久将开始销售用于AI加速的标准尺寸微芯片。
大多数计算机芯片的制造方法相同,即将多个集成电路印制在一个直径通常为300 mm的硅片上[13],然后将各个芯片切割下来,经过进一步加工后即可使用。虽然传统芯片的尺寸因其功能而异,但它们都比WSE-2小得多。英伟达的A100是一款AI领域的主力产品,也是市场上最大的GPU,面积为826 mm2 [2]。
无论用芯片运行手机还是AI超级计算机,芯片之间都必须相互通信。比如说,数据处理芯片的存储空间通常很小,因而需要从不同的数据存储芯片中调用数据,那么芯片之间的信号传输距离可能达到几厘米。Kumar说:“考虑到能耗、带宽减少和延迟增加等因素,芯片之间的通讯是非常昂贵的。”这些限制因素影响了AI系统的性能,因为AI系统在训练和执行特定应用时需要快速分析海量数据[14]。Kumar认为,将数据处理和数据存储整合到单个芯片上可以减少每比特的能耗、缩短延迟时间、提高带宽,从而加速实现AI成果。
这也是Cerebras公司采用巨型芯片方案的原因。该公司的制造工艺与传统芯片的制造工艺大致相同,都是在硅晶片上蚀刻多个微处理器。但是,该公司并没有将硅片切割成单个芯片,而是用一种名为“互连”(interconnect)的专用导电材料[15]将这些称为“块”(tiles)的芯片单元连接起来。该公司称,将处理单元和存储单元置于同一芯片上大有裨益,并声称“互连”的带宽比传统GPU连接线路的带宽高出45 000倍[16]。Cerebras公司于2019年发布了首款巨型芯片WSE-1 [17],并于2021年推出WSE-2,其计算核心的数量是WSE-1的两倍多[23]。
由于每台WSE-2的耗电量高达20 kW,因此该公司必须采用非比寻常的工程技术来为其巨型芯片供电并保持冷却。标准芯片插入印刷电路板(PCB),将电源连接到边缘,之后芯片的电能便在PCB上流动。但是在一个巨大的芯片中电能要传输很远,就会导致某些芯片单元获得的电能较少,甚至根本没有电能,而有些芯片单元可能会过热[15,1819]。在Cerebras公司生产的WSE-2中,每块芯片通过PCB接收电能,从而实现电力均衡分配[15,18]。对如此庞大的芯片进行温控也是一道难题,但Cerebras公司采用了模块化水冷系统,在该系统中,每块芯片都有各自的循环回路,可以引入冷水并排出吸收了芯片热量的热水[15,18]。
在过去的50年间,曾有多家公司尝试利用WSI制造大型芯片,但都以失败告终。20世纪60年代,总部位于美国得克萨斯州达拉斯市的Texas Instruments公司无功而返[3]。20世纪80年代,Trilogy Systems公司从投资者处募集了2亿多美元,但也是徒劳无果,沦为硅谷的前车之鉴[3]。
美国加州大学洛杉矶分校的电气与计算机工程教授Puneet Gupta称,Trilogy Systems公司无法解决所谓的良品率问题,这就注定了它的失败。尽管该公司不愿透露他们的芯片中有多少废品,但肯定有一定数量的芯片存在制造缺陷。传统芯片制造商可以扔掉或回收有缺陷的芯片,因为这类芯片的更换成本相对较低。和小型芯片一样,带有一个或多个残次处理器的超大芯片可能无法正常工作。但由于此类芯片的制造成本远高于标准芯片,因此扔掉一个芯片所造成的经济损失也就更大。由于种种原因,Trilogy Systems的良品率未能达标[3]。
Cerebras公司声称已经为良品率问题找到了解决方案:在芯片蚀刻完成后,通过测试识别有缺陷的核心,然后重新配置互连线路,绕过故障核心进行通讯,从而使芯片正常工作[15]。为了简化这一步骤,该公司在芯片中加入了备用核心,并声称这一策略理论上可以实现100%的良品率[18]。
尽管Cerebras公司尚未披露CS-2 AI加速器的价格,但据行业观察家估计,该加速器每台售价可能高达300万美元[20]。Kumar说,这种巨型芯片制造成本高昂,因此只有“愿意支付溢价”的买家才会使用。Gupta称,还有一个问题就是,由于制造方式的原因,芯片上的处理单元和存储单元是同质的。因此,这类芯片无法像传统电路那样集成多种功能(如集成不同类型的存储器)。Gupta说:“这就有很大的局限性。”
Gupta、Kumar和同事开发出一种替代方法,该方法涉及小芯片或小型专用芯片[10,21]。他们的设计包括2048个存储和计算(处理)小芯片,使用通讯用嵌入式铜互连将这些小芯片插入单个硅晶圆[10]。其完整电路面积为15 100 mm2,约为Cerebras芯片的三分之一。Kumar说,研究人员已经构建了一个带有八个小芯片的小型原型,并且将继续进行设计,但目前尚未计划投入生产。Gupta说,“这只是原理论证”,用以证明可以采用与Cerebras公司不同的方法生产WSI芯片。
Cerebras公司可能不会马上面临来自小芯片的竞争,但许多公司都在开发竞争性解决方案,以加快AI的发展。例如,Verma及其同事设计了一种标准尺寸的芯片,可以减少由分别存储造成的延迟和能量损失。他们采用了一种称为“内存计算”(in-memory computation)的策略,即将数据存放在需要该数据的处理芯片的内存(RAM)中[22]。Verma说,他参与共创的EnCharge AI公司已经生产出了可用芯片,不久将投入市场。
超大芯片的市场远景尚不明朗。到目前为止,Cerebras公司是唯一一家销售超大芯片的公司,其他公司是否会推出自己的超大芯片尚未可知。不过,Gupta表示,生产WSI芯片的积极性还是有的:“采用高效互连将大量计算与大量存储相连接,这方面的需求巨大。”

参考文献

[1]

Moore SK. The node is nonsense. IEEE Spectrum 2020;57(8):24‒30. . 10.1109/mspec.2020.9150552

[2]

Moore SK. Cerebras’ new monster AI chip adds 1.4 trillion transistors [Internet]. New York City: IEEE Spectrum; 2021 Apr 20 [cited 2024 Jan 31]. Available from:

[3]

Linder C. This is the world’s largest computer chip [Internet]. New York City: Popular Mechanics; 2019 Aug 27 [cited 2024 Jan 31]. Available from:

[4]

Lu Y. Supersizing computers and chips. The New York Times 2023 Jul 21; Sect B:1.

[5]

High-performance computing [Internet]. Sunnyvale: Cerebras Systems, Inc.; [cited 2024 Jan 31]. Available from: 10.1109/ICPPW.2017.17

[6]

Moore SK. Cerebras unveils first installation of its AI supercomputer at Argonne National Labs [Internet]. New York City: IEEE Spectrum; 2019 Nov 19 [cited 2024 Jan 31]. Available from:

[7]

ALCF Cerebras CS-2 system available to users [Internet]. Argonne: Argonne National Laboratory; 2023 Apr 28 [cited 2024 Feb 12]. Available from: 10.2172/2483310

[8]

Wang J. Introducing Condor Galaxy 1: a 4 exaFLOPS supercomputer for generative AI [Internet]. Sunnyvale: Cerebras Systems, Inc.; 2023 Jul 20 [cited 2024 Feb 12]. Available from:

[9]

Wafer scale integration [Internet]. New York City: PCMag; [cited 2024 Jan 31]. Available from: 10.7567/JJAPS.19S1.193

[10]

Pal S, Liu J, Alam I, Cebry N, Suhail H, Bu S, et al. Designing a 2048-chiplet, 14336-core waferscale processor. In: Proceedings of 2021 58th ACM/IEEE Design Automation Conference; 2021 Dec 5‍‒‍9; FranciscoSan, CA, USA.Piscataway: IEEE; 2021. p. 1183‒8. . 10.1109/dac18074.2021.9586194

[11]

Zhang T. ‘Big Chip’: China is building a wafer-sized processor to beat US sanctions on supercomputers and AI [Internet]. Hong Kong: South China Morning Post; 2024 Jan 16 [cited 2024 Jan 31]. Available from:

[12]

Castelvecchi D. ‘Mind-blowing’ IBM chip speeds up AI. Nature 2023;623(7985):17. . 10.1038/d41586-023-03267-0

[13]

Li A, Timings J. 6 crucial steps in semiconductor manufacturing [Internet]. Veldhoven: ASML; 2023 Oct 4 [cited 2024 Jan 31]. Available from:

[14]

Hutson M. The world’s largest computer chip [Internet]. New York City: The New Yorker; 2021 Aug 20 [cited 2024 Jan 31]. Available from:

[15]

Ugnius. Wafer-scale processors: the time has come [Internet]. Sunnyvale: Cerebras Systems, Inc.; 2019 Sep 6 [cited 2024 Jan 31]. Available from:

[16]

Wafer-scale engine: the largest chip ever built. Sunnyvale: Cerebras Systems, Inc.; 2021.

[17]

Woo M. The world’s biggest computer chip. Engineering 2020;6(1):6‒7. . 10.1016/j.eng.2019.11.001

[18]

McGregor J. AI startup Cerebras develops the most powerful processor in the world [Internet]. New York City: Forbes; 2019 Aug 20 [cited 2024 Jan 31]. Available from:

[19]

Moore SK. Huge chip smashes deep learning’s speed barrier. IEEE Spectrum 2020;57(1):24‒7. . 10.1109/mspec.2020.8946303

[20]

Cutress I. Cerebras unveils Wafer Scale Engine Two (WSE2): 2.6 trillion transistors, 100% yield [Internet]. Los Angeles: AnandTech; 2021 Apr 20 [cited 2024 Feb 14]. Available from:

[21]

Orcutt M. Chiplets: 10 breakthrough technologies 2024 [Internet]. Cambridge: MIT Technology Review; 2024 Jan 8 [cited 2024 Jan 31]. Available from:

[22]

Wiggers K. EnCharge raises $22.6M to commercialize its AI-accelerating chips [Internet]. San Francisco: TechCrunch; 2023 Dec 5 [cited 2024 Jan 31]. Available from:

AI Summary AI Mindmap
PDF (1000KB)

2888

访问

0

被引

详细

导航
相关文章

AI思维导图

/