今年国际固态半导体电路会议(ISSCC)刚刚落下帷幕。ISSCC一向是半导体工业界巨头展示最新研发成果的平台之一,在今年的会议上也是如此,我们从不少巨头发布的研究成果中看到了他们下一步的投入方向,从中也可以看到整体半导体行业的未来发展动向。
韩国半导体巨头:注重前瞻性人工智能芯片的产业化
在本届ISSCC上,除了DRAM等传统强项之外,韩国半导体巨头三星和SK Hynix最引人注目的方向可以说是人工智能相关芯片。虽然说人工智能芯片目前已经有许多大公司在积极投入,但是大多数大公司的做法往往是要么在自己已有的相关IP上做进一步迭代更新以满足人工智能的需求(例如高通将Hexagon DSP进一步拓展适配人工智能算法,Cadence将Tensilica迭代加速机器学习算法等),这么做往往是针对于这一代人工智能算法的需求做产品,而没有太多前瞻性;要么是和高校一起做研发,这样通常比较偏科研性质。而三星和SK Hynix的主要不同在于,在本届ISSCC上发表的人工智能芯片都是自主研发,并且有明确的产品化方案(或者已经在进行产品化),这样兼顾下一代技术探索同时又有明确产品化可以说是三星在人工智能芯片的独特之处。
在今年的ISSCC上,三星发表了一篇是关于移动端NPU的论文,目前已经使用在其4nm Exynos SoC中;而SK Hynix则发表了关于基于GDDR-6的DRAM存内计算的论文,并且官方宣布将会和韩国的AI芯片公司Sapeon合作进一步推广GDDR存内计算生态。
三星的NPU论文的主要关注点在于进一步优化数据流以提升计算单元利用率、优化计算单元以覆盖不同的计算精度、提供不同的工作模式以满足不同功耗和性能的需求。其中*点是几乎所有NPU都要解决的问题,而在计算单元优化方面,三星的NPU可以覆盖INT4、INT8和FP16几种精度,这些计算精度基本上能覆盖移动端人工智能算法所有的需求(例如INT4针对较为简单的网络,而FP16针对较为复杂对于精度要求更高的网络)。另一方面,该NPU有高性能模式和低功耗模式两种工作模式,从而满足移动端不同应用场景之间的切换。从这两点来看,可以说该NPU的设计确实是在覆盖手机芯片在日常应用中的痛点,其优化的方向有非常明确的实际应用场景,可以说已经是经过许多实战的打磨。我们认为,三星的论文标志着它的NPU技术说明它在产业化上已经有了很深厚的积累。
韩国的另一个半导体巨头SK Hynix则在今年的ISSCC上发表了基于GDDR接口的DRAM存内计算。在人工智能应用中,内存访问决定了许多模型的运行速度,因此越来越多公司和机构在探索存内计算,即将计算直接在存储器中运行,这样就省去了内存访问的开销。基于DRAM的存内计算则非常尤其适合云端和边缘端的人工智能算法,而这次SK Hynix发表在ISSCC 2022的DRAM存内计算(Accelerator in Memory, AiM)研究中,使用了将计算单元集成在DRAM存储芯片中的架构并完成了4Gb AiM芯片,通过DRAM控制器,该DRAM既可以做存内计算,又可以当作正常的DRAM来使用。论文测量结果显示,AiM相对传统的GPU+HBM2在常用机器学习模型中可以实现高达10倍的性能提升。我们认为,DRAM中的存内计算有可能会成为DRAM行业下一步的新方向,有可能会成为一个新的DRAM品类——值得注意的是,DRAM巨头三星在去年也发布了类似的DRAM存内计算研究和计划,我们预计该方向将会在未来获得更多的关注和投入。
台积电:SRAM/下一代存储器存内计算成亮点
台积电在人工智能方面的投入也很可观。作为全球*的代工厂,台积电在人工智能领域的投入在本届ISSCC上主要体现为带有存内计算的片上存储器IP,包括SRAM和下一代存储器(RRAM,STT-MRAM)等。在本届ISSCC上,台积电共合作发表了六篇关于存内计算存储器IP的论文,其中有一篇的作者全部来自台积电,其余五篇则是台积电和台清大和佐治亚理工等高校合作。
台积电对于基于SRAM和下一代片上存储器存内计算研发投入的逻辑在于,基于芯片上存储器的存内计算正在目前的人工智能应用,尤其是低功耗物联网人工智能应用中得到越来越多的关注。如前面我们分析过的,内存访问是人工智能模型运行速度和能效比的决定因素,物联网应用对于能效比非常敏感,物联网人工智能模型通常较小有机会可以放入SRAM和下一代片上存储中,因此存内计算非常适合这些应用(相对而言,DRAM存内计算更适合需要运行大人工智能模型的云端应用)。SRAM一向是半导体工艺的一个重要基准(通常SRAM密度是衡量半导体工艺的一个重要参数),因此台积电抓住下一代SRAM IP将对于巩固其代工厂龙头地位有重要作用。除此之外,RRAM这样的下一代新兴存储器也在继续发展壮大,因此对于台积电来说也希望能抓住这样的机会。带有存内计算的SRAM和下一代存储器也就成为了台积电能提供带有差异化IP的一个重要机会,因此我们看到台积电在ISSCC上的众多相关研究发表——这些发表的论文背后都是台积电真金白银的投入。
回到技术方面,本次由台积电作为*作者机构在ISSCC上发表的SRAM论文是基于其5nm工艺,其64kb的IP可以实现在不同计算精度(INT4 – INT8)下实现非常高的计算密度(55.3-221.2 TOPS/mm2)和能效比(70 – 254 TOPS/W),这也证明了台积电在SRAM存内计算领域的深厚积累(与此相对的是,三星的人工智能芯片领域的*领域主要在NPU和DDR存内计算)。而在下一代存储器方面,台积电也在和台清大、佐治亚理工等高校合作发表了多项新技术,涉及RRAM、STT-MRAM、相变存储器等多种新存储器,可见台积电也是在多个新存储器领域做了投入,希望能覆盖到未来真正的主流下一代存储器。
量子计算:下一代计算新范式
除了传统应用芯片之外,量子计算也是本届ISSCC的一个亮点。谷歌和IBM作为在量子计算领域投入最多的巨头,也在本届ISSCC上发表了相应的研究,其中IBM发表了一篇综述研究,以及一篇用于量子计算控制的芯片;而谷歌则发表了一款关于其Sycamore量子计算芯片的综述。
量子计算机到底应用在哪里?IBM在ISSCC上发表的研究中指出,量子计算的主要目的并不是取代传统通用计算机,而是在一些专门的问题中(如质因数分解,化学相关模拟计算、优化问题)等获得远高于传统计算机算法的处理速度,这是由于量子计算的独特特性所决定的。
量子计算和集成电路芯片有什么关系?目前看来,量子计算的核心量子位(QuBit)可以使用基于可调频率的谐振电路,这些量子位可以使用特殊半导体工艺在超低温下实现;除此之外,另一个容易被忽略的和半导体芯片相关的部分是量子计算处理器的控制和读出芯片。量子位的控制需要能产生高频率的调制射频信号,而在读出部分则需要将相关信号以较高的采样率读出。事实上,这些控制和读出都和目前已有的射频电路由较为相似的结构(如正交变频和可变增益等)和需求(例如高信噪比,高灵敏度等等)。谷歌在其论文中指出,控制和读出芯片将会是量子计算机跨向下一步(即进一步增加量子位数)的关键,也可以说当量子计算机成为主流时,相关的控制和读出芯片也可望会成为一个新的芯片品类市场。
21224起
融资事件
4358.73亿元
融资总金额
11657家
企业
3214家
涉及机构
510起
上市事件
6.48万亿元
A股总市值