全部
  • 全部
  • 解决方案
  • 技术问答
  • 视频中心
  • 知识分享
  • 技术资讯
  • SEED产品
400-048-1230
订阅
  • 首页
  • 解决方案
  • 技术问答
  • 视频中心
  • 知识分享
  • 技术资讯
  • SEED产品
2024年全球半导体行业10大技术趋势
来源:电子工程专辑 发布:2023/12/27 浏览量:120

整个2023年,半导体行业下行期的阴霾似乎仍未散去,但业界已经看到了一丝曙光。年初ChatGPT的横空出世,引爆了全球对于生成式人工智能(AIGC)的追捧。AI和大模型的兴起催生多元化的落地场景,为数据中心、汽车电子等应用带来极大助益的同时,也对芯片算力、能效、存储和集成度等提出了新的挑战。

整个2023年,半导体行业下行期的阴霾似乎仍未散去,但业界已经看到了一丝曙光。年初ChatGPT的横空出世,引爆了全球对于生成式人工智能(AIGC)的追捧。AI和大模型的兴起催生多元化的落地场景,为数据中心、汽车电子等应用带来极大助益的同时,也对芯片算力、能效、存储和集成度等提出了新的挑战。

 

但也是这些挑战,也刺激了半导体从材料、设计、制造到封装技术本身的发展。在第三代半导体碳化硅、氮化镓开始大面积商用后,第四代半导体氧化镓开始崭露头角;AI芯片借助大模型东风,成为各大芯片厂乃至整机厂自研角力的主战场。为了获得更大算力和更快的存储速度,Chiplet3D-ICHBM以及一系列新型存储器的商用也在提上日程。就连一直被称为实验室技术的可编程光计算,也开始跃跃欲试取代GPU中的线性计算部分。

 

AspenCore全球分析师团队在这一年中与业内专家和厂商交流,总结分析后挑选出了2024年全球半导体行业将出现或高速发展的10大技术趋势,供大家参考。

 

 

趋势一:AI芯片为生成式AI加速

 

2023年对AI而言是个大年,临近2022年底到2023年初,以ChatGPT为代表的生成式AI在应用端爆发。生成式AI”(或被称作AIGC)这个词在2023年被大肆提及,仿佛生成式AI”是此前所谓AI”时代的序幕。实际上,英伟达为数据中心GPU特别加入Transformer引擎并不是2023年的事情,但显然这一提早布局为生成式AI的底层算力加速提供了基础。

 

之所以形容生成式AI爆发,从芯片角度来看,在GPTStable Diffusion等模型出现后不久,全球几乎所有面向数据中心的大算力AI芯片——无论训练还是推理,相关企业的市场似乎就改写了剧本,几乎家家户户都在宣传自家芯片能够为生成式AI提供算力,且为不同的大模型达成合作或支持。2023年的WAIC世界人工智能大会几乎就是生成式AI专场。

 

不仅是数据中心,边缘与端侧的AI芯片企业也在接踵摩肩地谈生成式AI概念。从Intel为来年AI PC铺设了半年的宣传——2024年的PC处理器也将全面集成专用的AI加速单元,到2023年底联发科高喊手机生成式AI芯片——手机也能在本地推理生成式AI模型,甚至部分做嵌入式应用的芯片企业也在谈生成式AI

 

事实上,即便不谈生成式AI,它带来的AI旋风也极大程度再度带动了边缘AI的热潮:包括TI、瑞萨、英飞凌在内的传统MCU/MPU制造商都再度强调了边缘AI当下的巨大价值。这种风潮,以及生成式AI在数据中心和PC/手机上的大热,都将延续到2024年,并得到更进一步的发展,甚至在应用端发力时,为全社会数字化转型带来更多的可能性。

 

趋势二:用Chiplet技术支持算力扩展成为主流趋势

 

随着摩尔定律放缓,以及AI、自动驾驶、数据中心等新的应用端对存储力、算力提出更高的要求,单靠先进芯片工艺的不断演进已难以为继,Chiplet和三维异构集成,将为突破集成电路发展瓶颈提供新的增长驱动力。2023年,在台积电、三星、Intel等芯片巨头,以及产业链企业的推动下,Chiplet产业链各环节逐渐完善,形成了由Chiplet系统级设计、EDA/IP、芯粒(核心、非核心、IO DieBase Die)、制造、封测组成的完整Chiplet生态链。

 

目前,全球半导体科技巨头均在积极推出包含Chiplet的产品,比如特斯拉Dojo深度学习和模型训练芯片、AMD MI300 APU加速显卡、英伟达Ampere A100 GPU等。国内算力芯片厂商亦在跟进布局。2024年,随着AI大模型不断发展,采用Chiplet技术来定制高效扩展算力将成为主流趋势,未来还将运用在板级多芯片互连甚至更大规模的多板多机柜互连方案中。

 

不过,尽管Chiplet正成为满足当下算力需求的关键技术之一,但仍然面临诸多设计挑战,比如互连、散热、良率、翘曲、无源器件集成、寄生效率、成本、可靠性等。通过封装技术才能有效实现多Chiplet的集成,包括高密度先进封装的设计、生产、验证,高速通道的设计、验证,供电方案、散热方案、应力方案、可靠性等。同时,Chiplet应用的局限性依然明显,主要在于Chiplet仍以国际大厂的垂直体系为主,相关设计系统相对封闭,且仍有待完善互联标准。

 

趋势三:HBM,价量齐升

 

随着人工智能/机器学习(AI/ML)在全球范围内的迅速兴起,2020年,以高带宽内存(HBMHBM2HBM2EHBM3)为代表的超带宽解决方案开始逐渐显露头角。进入2023年后,以ChatGPT为代表的生成式人工智能市场的疯狂扩张,在让AI服务器需求迅速增加的同时,也带动了HBM3等高阶产品的销售上扬。

 

Omdia研究显示,从2023年到2027年,HBM市场收入的年增长率预计将飙升52%,其在DRAM市场收入中的份额预计将从2023年的10%增加到2027年的近20%。而且,HBM3的价格大约是标准DRAM芯片的5-6倍,这就是为什么2023HBM出货量仅占DRAM总出货量的1.7%,但其销售额比例却达到了11%,英伟达、AMD、微软、亚马逊等芯片大厂排队抢货,甚至溢价也可考虑的原因。

 

HBM技术于2013年推出,是一种高性能3D堆栈DRAM构架,数据传输速率大概可以达到1Gbps左右。此后,该技术标准差不多每隔2-3年就会更新一代,使得第二代(HBM2)、第三代(HBM2E)、第四代(HBM3)和第五代(HBM3E)产品的带宽和最高数据传输速率记录被不断刷新。鉴于同期内其他产品的带宽仅增加两到三倍,我们有理由将HBM产品的快速发展归功于存储器制造商之间激烈的竞争。

 

目前来看,作为一项重要的技术创新,HBM的发展前景是相当光明的,尤其是在人工智能训练应用中。但对比GDDR DRAM动辄16/18Gbps的速率,HBM3的速率即便达到9.2Gbps,也仍然存在差距,而限制HBM发展的原因则主要来自两方面:一是中介层,二是3D堆叠带来的复杂性和制造成本的增加。但我们相信,随着全球存储巨头的深度介入,上述挑战终将得到解决,HBM市场的激战也会愈演愈烈。

 

趋势四:卫星通信技术迈出一大步,6G已具雏形

 

在去年的预测中,我们提到手机卫星通信技术将在2023年开始全面铺开。如今这项技术在华为对射频天线技术的攻克之下,再度往前迈出了一大步。随着华为Mate60Pro系列的推出,手机行业从点对点、单向的卫星短消息模式进入了卫星通话时代。

 

以往,人们主要注重5G及其芯片,忽略了卫星通讯。当前,以华力创通、海格等一系列研发卫星通讯芯片的公司得到了迅猛发展。

 

SoC方面,紫光展锐也推出了首款5G卫星通信芯片V8821,符合IoT NTN R17标准,支持L频段海事卫星以及S频段天通卫星,并且可扩展支持接入其它NTN卫星系统,能够提供数据传输、文字消息、通话和位置共享等功能,除了可用在智能手机直连卫星上以外,还可用于物联网、可穿戴产品、车联网等。

 

联发科也在MWC2023大会上,推出了MT6825 IoT-NTN芯片组,可连接地球同步轨道(GEO)卫星,易于转换为3GPP NTN标准卫星网络使用。20238月,联发科发布最新卫星网络和地面网络整合为题的6G NTN技术白皮书,未来将通过卫星网络与地面网络的兼容互补,打造陆海空全地形、全空间的立体网络覆盖范围,为使用者提供无缝智联的通信服务。

 

至此,随着卫星通信技术在手机和物联网等领域的不断突破,未来的6G已具雏形。2024,将是卫星通信技术全面开花的一年。

 

趋势五:氧化镓商业化进程脚步将至

 

当前,宽禁带半导体发展势如破竹,其中,作为第四代半导体的氧化镓已经逐步崭露头角。相比金刚石、氧化铝等同是第四代半导体来说,氧化镓已经可以实现更大晶圆尺寸的突破,有数据预测到2023年氧化镓的市场规模有望超过氮化镓器件的规模。

 

氧化镓有五种已确认的结晶形态,其中最为稳定的是β-氧化镓,当前大部分研究和开发也是针对β-氧化镓进行,氧化镓拥有高击穿场强的特性,导通电阻比氮化镓、碳化硅低得多,能有效降低器件的导通损耗。

 

氧化镓的生长过程可以使用常压下的液态熔体法,在制造生产上具有成本优势。当前氧化镓的发展前景日益凸显,该市场由日本的Novel Crystal TechnologyNCT)和Flosfia两大巨头占据主要市场。当前产业界已经成功量产4英寸氧化镓晶圆,在未来几年将有望扩大至6英寸。同时,β-氧化镓肖特基二极管的商业化开发进程在不断加速。

 

在功率电子市场,氧化镓与氮化镓和碳化硅的应用有所重合,目前车规级功率器件的上车率已经在逐年递增,这也为氧化镓提供更大的应用场景的机会。从短期来看,在消费电子、家电以及高可靠、高性能的工业电源等也具备很大的潜力。虽然氧化镓带来了新的可能性,但碳化硅和氮化镓等材料也拥有过其独特的优势和应用领域。随着科研技术的不断进步和应用场景的不断拓展,氧化镓在半导体领域有望发挥更大的重要性。

 

趋势六:上下游积极推进3D-IC商用进程

 

过去50多年,摩尔定律牵引着整个半导体行业的发展,如今由于先进工艺升级变缓,研发成本高昂,无法像过去那样每18~24个月带动晶体管集成的数量翻倍,导致半导体性能提升面临瓶颈。不过好在先进封装仍在持续演进,从1970年的MCMSiP,再到2.5D和现在的3D-IC、异构集成,为半导体行业的创新打开了另一扇大门。

 

几年前出现的PCB板级封装3D-IC,已经不是什么新鲜事,如今大家讨论的是两个晶圆堆叠(WoW)的3D-IC,只有这样芯片间通信的带宽才会更大。但目前3D-IC仍未实现大面积商用,主要面临两个最大挑战:散热问题;芯片表面张力问题。

 

复杂、紧凑、密度增大,导致3D-IC内部热量比传统2D芯片更难散出,不同工艺的晶粒堆栈之间,产生的应力也是千奇百怪。不但需要特殊的D2D接口IP,使用TSV技术来实现芯片间高速高效数据通信,还需要用合适的EDA工具在键合前进行热分析、应力分析,帮助芯片设计工程师完整系统整合优化。

 

整个2023年,业界也在积极加速推动3D-IC进展和系统级创新部署。例如,台积电推出新的3Dblox 2.0 开放标准,3DFabric平台让客户可以自由选配3D-IC前段和后段组装测试相关技术,包含整合芯片系统(SoIC)、整合型扇出(InFO)以及CoWoS;联电与华邦、智原、日月光半导体和Cadence成立W2W 3D IC项目,加速3D封装产品生产,预计 2024 年完成系统级验证;新思科技则和力积电合作,共同推出新的W2W和晶圆堆栈芯片(CoW)解决方案,开发者能将DRAM存储器直接堆叠和键合在芯片上。

 

趋势七:Micro OLED进入规模化应用前夜

 

尽管Micro LED堪称最完美的显示技术,但其仍然面临巨量转移、全彩化、检测修复等技术挑战,短期内无法规模化应用。而Micro OLED是显示技术和半导体技术的深度结合,即CMOS技术与OLED技术的紧密结合,也是无机半导体材料与有机半导体材料的高度融合。尽管Micro OLED也存在诸多技术难题,特别是CMOS工艺与OLED技术分属不同工艺制程,两者专业且复杂,集成技术要求严苛,但相对Micro LED,其规模化应用可能性更大、更早。

 

Micro OLED技术与目前主流VR/AR显示技术Fast-LCD相比,也有不少优势,主要体现在低功耗、工作温度宽、高对比度、响应速度快等性能上,几乎弥补了Fast-LCD的不足,是当下最适用于近眼显示的微显示技术。苹果在2023年全球开发者大会发布了采用Micro OLED显示屏的Vision Pro头显,势必会推动这一技术的商业化应用。

 

不过,Micro OLED因其有机发光材料的属性,存在两大天然的技术障碍:亮度和寿命,即与其他OLED技术一样,存在烧屏、寿命期较短的问题。但鉴于Micro OLED主要应用于消费电子领域,寿命期这一缺陷就如OLED显示在智能手机上的应用,并不会产生太大影响。而Micro OLED的亮度则无法满足VR/AR设备完全模拟的要求。

 

2023年全球Micro OLED厂商积极扩产Micro OLED 8英寸、12英寸产线,部分已经实现量产,预计2024年将为虚拟现实终端应用提供更多数量的Micro OLED屏幕。同时,鉴于Micro LED短期内无法规模化量产,Micro OLED则有机会在未来一段时间内成为微显示主流技术。

 

趋势八:“可编程光计算芯片”应对算力需求暴涨

 

生成式AI浪潮推动了算力需求的暴涨,但随着摩尔定律逼近极限,曾经的电子技术已难以满足新一轮科技革命需要,人们开始寻求把电换成光,来进一步提升算力。

 

光芯片很早就有,但绝大多数是不可编程的光学线性计算单元,要想通过光来提升算力,计算单元就必须具备可编程性。这种光计算芯片直到2017年,沈亦晨等人在《自然·光子》(Nature Photonics)期刊上发表论文,提出一种以光学神经网络为蓝本的全新计算架构,才逐渐取得突破性进展。

 

可编程光计算芯片具有集成度高、速度快/低延迟、低能耗、擅长AI矩阵计算、成本下降潜力大、波导传输性能优异等优势。挑战也同时存在,例如复杂计算需要用到大量光器件,带来更复杂的结构和更大的尺寸;实现可编程要对每个器件进行控制,在工艺上要求更高集成度带来的成本、稳定性和良率挑战;以及环境温度对计算精度产生影响,带来的温度控制挑战等等。

 

硅光芯片商业化最主要的思路就是硅光的技术通用性,例如优先把GPU中做线性计算的计算核部分,换成光的计算核,形成光电混合的算力网络新范式,最大限度降低客户的学习成本和使用门槛。

 

其次是光芯片模块化,在满足计算应用的同时,追求片间传输光模块的“即插即用”。这也涉及到用片上光网络和片间光网络技术,利用光的低延迟和低能耗优势代替模块间的电互连,晶圆级的光互连网络能够在把计算任务映射到不同芯片时,达到更高的利用率。

 

趋势九:新型存储器,从理论走向实战

 

物联网、人工智能的发展让信息量呈现爆炸式增长,所有资料都必须在从边缘到云端的多个层级上进行收集、处理和传输、存储和分析。但另一方面,摩尔定律却面临扩张速度的急速放缓,无法再提供功率、性能和面积成本(PPAC)的同步提升。

 

在这样的大背景下,各种规模的企业开始竞相开发新的硬件平台、架构与设计,以提升计算效率,而以MRAM(磁性随机存储器)PCRAM(相变随机存储器)ReRAM(阻变存储器)为代表的新型存储器技术,便是芯片与系统设计人员都致力研究的关键领域之一。这些新型存储器既能够提供更多工具来增强近存储器计算(Near Memory Compute),也是下一阶段存储器内计算(In-Memory Compute)的建构模组。

 

相关研究指出,无论是作为独立芯片还是被嵌入于ASIC、微控制器(MCU)和运算处理器中,它们都有可能变得比现有的主流内存技术更具竞争力。如果以嵌入式MRAM取代微控制器中的eFlashSRAM,可节省高达90%的功耗;如果采用单一晶体管MRAM取代六个晶体管SRAM,则可实现更高的位元密度和更小的芯片尺寸,这些功率与面积成本优势将使MRAM成为边缘侧设备的有力竞争者。而相较于传统的NAND闪存,PCRAMReRAM存储级存储器更可提供超过10倍以上的存取速度,更适合在云端对资料进行存储。

 

但这些新兴存储器也存在一些关键共性问题,例如在单元层面,就存在热稳定性、写电流与疲劳特性之间的矛盾,需要通过材料的选择、集成工艺、电路的综合优化来克服;如果从阵列架构方面来看,交叉阵列结构中又存在由漏电引起的串扰问题。从目前的研究进展来看,相变材料异质结构设计、自旋轨道矩(SOT)等前沿技术,有望能够较好的解决上述挑战。

 

趋势十:硅基量子计算的可用性与商业化迈进

 

很多企业和机构研究量子计算机,是把注意力集中在了类似超导比特位之类的材料上。近些年有越来越多的研究机构把注意力放到了硅基量子计算方向。毕竟硅仍然是一种更唾手可得的材料,也就具备了天然的优势。而且对硅基量子计算而言,量子位可以是单个电子,也能做得非常小。

 

则硅基量子计算技术是更便于大规模量产的,即便它在操作时间(类似于门延迟)方面会弱于基于超导的量子位。这两年对硅基量子计算而言都可谓收获颇丰。2022年硅基量子计算领域取得了一些比较大的技术突破,包括极低错误率的量子计算实现,让这种计算技术有了可以规模化、真正用于计算的潜在价值。而且也有研究展示了较长的自旋量子位相干时间——研究展示的平台还和CMOS生产制造兼容。

 

2023年硅基量子计算有几个重大事件。6月份,IBM宣布量子计算机进入可用utility)阶段;9月份,澳大利亚首席科学家Cathy Foley说见到了量子时代的曙光。与此同时物理学家Michelle Simmons因为开发硅基量子计算机,获得澳大利亚国家最高科学奖。

 

商业化方面,具有代表性的是Intel这些年开展有关量子计算的研究,自然都是基于其晶体管设计和制造方面的积累,都是基于硅的。此外也有包括Quantum Motion, Silicon Quantum Computing在内的企业着手硅量子计算机研究开发。2024年的硅基量子计算或许会有进一步的商业化迈进。

市场趋势
请使用浏览器分享功能 请点击右上角,进行分享