今天,等离子体技术和纳米光子技术领域的研究人员已经很好地理解了通过查找引起讨论的计算系统的发展的更复杂的依赖性来更新摩尔定律的主题。
重要提示:本文中的大多数链接都指向英语材料。俄罗斯国内的光子学研究人员并不多,确实存在的人更喜欢用英语发表。
如果您想闲暇时喝杯茶来进一步研究这个话题,请您收听Dmitry Fedyanin的报道。 -纳米光子技术在计算机系统中的应用方面的主要俄罗斯研究人员之一。
Dmitry Fedyanin是MIPT的高级研究员。
然后,我们将分析一篇有趣的文章,其中的一组作者提出了生产力增长度量的极其原始的概念,它是经典摩尔定律的替代方法。由于对操作处理器内核的现有技术中的自然物理局限性进行了分析,以及基于纳米光子学的新系统的实验证实的前景,该想法得以成熟,现在已通过实验确认。
现代工业系统不断提出的提高计算效率和通信带宽的要求,已使半导体技术达到目前的极限。这导致了可以超越传统解决方案的新技术的出现。我们正在谈论光子预处理器或加速器,电子-光子混合电路和神经网络。但是,为描述和预测计算系统性能的演化所做的努力并不能使人们准确地预测并由此解释实际观察到的发展速度。也就是说,所有拟议指标最终都在最初提出后几年偏离了它们的发展轨迹。这种差异需要一个平衡的指标,其中包括计算系统发展背后的整体驱动力。
一个新的指标叫做原始概念能力,以延迟量电流电阻(CLEAR)提出的研究人员(帅孙,维克拉姆K.纳拉亚纳,马里奥Miscuglio,梅西C. Kimerling,塔里克埃尔- Ghazawi,沃尔克·J. Sorger)组成的国际团队。根据文章的作者(请参阅此处),该指标涵盖了同步速率,能源效率,计算机物理尺寸的缩放和经济成本变化的动态变化。作者认为,CLEAR是当今唯一可以正确描述计算系统历史发展的指标。即使有不同的选择和相互的技术组合,CLEAR也符合观察到的恒定增长率,包括拟在将来实施的主要计算技术(预测)。向读者介绍了CLEAR,作为定量预测当前和未来计算系统生产率增长的指南。
尽管事实上计算性能的发展一直在不断提高,但是基于现有半导体行业的设备的观察到的性能速度明显下降,特别是在14nm技术中(请参见此处和此处)。这是由于自然的物理限制以及工业芯片生产连续过程不断增长的经济成本所致。
由于这些原因,对摩尔定律作为半导体行业的路线图进行了多次修订,以消除这些障碍(请参阅此处))。同样,物理量的其他关系的发展动态(取决于时间),例如使用计算能力的效率指标(久米定律)或从能耗,大小和成本之比得出的计算能力指标(牧元定律),都相同。与观察到的技术发展速度相比(图1)-实际上,指标中选择的时间函数(例如,多核,制造成本)不能提供指数增长。
例如,具有N个内核的处理器的性能仍然受到比率1 /(((1-p)+ p / N)的限制,其中p是并行化级别(请参阅。在这里)。因此,如果仅使用摩尔定律(或其他现有的预测指标)来跟踪计算系统性能的演变变得越来越困难,在该定律中仅使用一个或多个驱动因素来描述计算系统的性能(请参见此处)。另外,不同的硬件实现方式(例如,电气,光学)的好处会随着时间的推移以不同的方式发生变化,从而使进化预测更加困难。
例如,集成的光子学和可能的等离子学可以扩展板上甚至芯片上的某些通信通道。结果,将大大减轻热功耗问题,并增加数据带宽,并能够使用诸如波分复用(WDM),光学角动量或更高的调制格式(例如偏振幅度调制)等概念性方法克服电子数字效率障碍。调制(例如QAM),其中相位和幅度极化同时使用(请参见此处和此处)。
关于与其他技术的权衡,具有14 nm工艺节点的一个电子晶体管所占面积比光子微盘的环形调制器小3个数量级,但是,光子学在通道级提供了互连,而没有电容性的充电/放电线,尽管它与以上所述具有协同作用支持高达Tbps的数据传输速率的独特特性(请参阅此处)。图1.从1946年至今的计算机系统的发展性质可以用四个不同的指标来表示:(a)摩尔定律-基于芯片上组件数量的增长,以晶体管的数量为单位进行度量;(b)
库米定律-反映每单位计算的能源效率,位/(s *焦耳);(c) Makimoto指数,其中包括“情报”,系统的功率,大小和成本,以MIPS /(W * mm3 * $)为单位进行衡量;和(d)的CLEAR在等式(4),其中考虑到除了牧本得分并与引入新的技术相关联的经济成本的系统等待时间分数来定义:MIPS /(S * W *立方毫米* $)。光子CLEAR数据基于英特尔对硅光子学的预测。虚线表示基于初始增长率的线性拟合(对数),年生产率翻倍。
这组作者说,五因子指标CLEAR(其名称代表缩写为Capability-to-Latency-Energy-Amount-Resistance)是描述整个已知历史时期内计算性能演变的最可靠方法,从计算技术的兴起开始在1940年代。直到现在该指标涵盖了与各种计算选择的发展速度相关的物理和经济因素。因此,CLEAR可以用作与技术无关的定量指标,因为它既包括基本的物理依赖关系,也包括经济依赖关系。
基于观察和分析,作者得出两个关键结论:
- , ;
- ( ) , (.. CLEAR) ( ) .
基础物理的发展,半导体技术的管理以及经济成本要求不断变化和适应,以便逐步发展计算系统的技术。由于半导体产业成立以来,摩尔定律已经改变的根本因素几次:从计数晶体管,该行业正在扩张(第一过渡)来占位面积和晶体管缩放由于芯片尺寸的限制,并增加整个系统的复杂性(见这里)。
当时钟频率发现它的局限性,由于所描述的功率密度散热约束发生第二跳通过丹纳德的比例定律(看这里)。随着晶体管的规模接近基本的物理极限,由于多核和大规模并行异构架构中实现的并行性,此时晶体管的数量持续增加。这增加了互连中的瓶颈,导致需要禁用芯片的某些区域(“深色硅”)。因此,增长率已从最初的每12个月翻一番变为现在的约24个月。
最近,一个完全不同的领域出现了一种新的驱动力,它影响了计算系统的发展,它是集成光子学和混合纳米光子学,其中光信号的路由由无源集成光子组件执行,而电光有源组件则通过新的解决方案进行放大:
对于这些新技术,不可能仅将芯片上的组件数量或扩展足迹和成本作为单独的指标进行计算,因为它不能更准确地反映实际的性能变化。同样重要的是,出现了其他技术的趋势,例如光通信中使用的技术,其中将具有不同波长的多个信号打包到同一物理信道中,从而提高了硬件的利用率。这是评估系统性能的重要因素。因此,需要考虑多种驱动力的整体度量,以提供不同技术解决方案对计算系统发展的贡献的准确比较。
计算系统发展的单一指标
为了获得独立于技术的指标,作者收集了1940年代以来台式机,笔记本电脑,移动设备,服务器,工作站和超级计算机的性能数据,并将其与传统指标进行了比较(图1)。
特别是,摩尔定律将晶体管的数量作为唯一足够的因子(等式1),而库米定律已经依靠两个因子:能量和计算数量,从而总结了指标的基础,以比特/(s * J)为单位(等式2)。每个大小成本动力单位每秒数百万条指令(MIPS)被称为Makimoto度量标准,已经定义为4因子度量标准(公式3)。
摩尔定律=晶体管数[数量] (1)
库米定律=计算/能量[位/(s * J)] (2)
Makimoto得分=智力/(大小*成本*功率)[MIPS /(mm3 * $ * W)] (3)
这三个指标的值显示出相似的增长模式:上升趋势可以很好地跟踪其原始数据,但只能在有限的一段时间内进行,最终会偏离它们。这表明基本因素未能完全掌握主导计算系统发展的实际驱动力。
图中趋势线的分析图1显示了最初的晶体管数量(1950年代至1960年代)很好地反映了摩尔定律的两倍的年增长率(浅绿色虚线,图1)。然而,在下一个时期(1960年代至1970年代),提高能效的比例(即库米定律)成为主要因素,因为简单地增加更多的晶体管受到芯片尺寸和复杂性的限制。因此,摩尔定律开始偏离2倍/年的趋势,而牧本定律仍保持其原始增长率。自1970年代后期以来,由于制造工艺明显复杂,能量泄漏和散热等问题,尺寸和功率缩放等因素已逐渐达到极限。随着并行化(即多核处理器)的出现和市场经济规模的发展,Makimoto指标最终也有所偏离(自1978年以来)。图中的虚线1代表每种法律的生产率增长的初始预测。这些趋势线显示了相应法律引入的每个其他因素如何影响其自己的原始预测指标,显示为与原始预测的偏差。通过将这种趋势视为技术发展速度的理论上限,现在可以了解“声称的”趋势是否实际上是“实际的”。也就是说,当前的法律是技术发展放缓的原因,还是新的生产力因素开始占主导地位。也拒绝了(自1978年以来)。图中的虚线1代表每种法律的生产率增长的初始预测。这些趋势线显示了相应法律引入的每个其他因素如何影响其自己的原始预测指标,显示为与原始预测的偏差。通过将这种趋势视为技术发展速度的理论上限,现在可以了解“宣称的”趋势是否实际上是“实际的”。也就是说,当前法律是技术发展放缓的原因,还是新的生产力因素开始占主导地位。也拒绝了(自1978年以来)。图中的虚线1代表每种法律的生产率增长的初始预测。这些趋势线显示了相应法律引入的每个其他因素如何影响其自己的原始预测指标,显示为与原始预测的偏差。通过将这种趋势视为技术发展速度的理论上限,现在可以了解“声称的”趋势是否实际上是“实际的”。也就是说,当前法律是技术发展放缓的原因,还是新的生产力因素开始占主导地位。相关法律引入的每个其他因素如何影响其自身的原始预测指标,显示为与原始预测的偏差。通过将这种趋势视为技术发展速度的理论上限,现在可以了解“声称的”趋势是否实际上是“实际的”。也就是说,当前的法律是技术发展放缓的原因,还是新的生产力因素开始占主导地位。相关法律引入的每个其他因素如何影响其自己的原始预测指标,显示为与原始预测的偏差。通过将这种趋势视为技术发展速度的理论上限,现在可以了解“宣称的”趋势是否实际上是“实际的”。也就是说,当前法律是技术发展放缓的原因,还是新的生产力因素开始占主导地位。当前的法律是技术发展放缓的原因,还是新的生产率因素开始占主导地位。当前的法律是技术发展放缓的原因,还是新的生产率因素开始占主导地位。
因此,到目前为止,尚无明确的已知指标可以:
- 解释最近的性能变化;
- 提供有关预测未来绩效的指导。
作者引入的CLEAR指标包括来自多种技术选择的生产率因素,包括物理和经济约束。作者的主要断言是,构成CLEAR的因素并不是随机选择的,而是技术和经济趋势的基础:
CLEAR =能力/(延迟*能量*数量*阻力)[[MIPS /(s * W * mm3 * ($)]] (4)
或原始
格式:CLEAR =(功能)/(延迟*能量*数量*阻力)[[MIPS /(s * W * mm3 * $)]]
作者为CLEAR指标制定了公式,确定了整个计算系统演进过程中的恒定增长率,涵盖了七十年来性能提高了4个数量级。此外,实际观察到的发展速度每12个月持续增加一倍。该5要素得分基于性能和成本的概念。可以将CLEAR应用于设备,架构和系统级别。
例如,在系统级别,CLEAR的结构如下:
能力C是通过每秒数百万条指令(MIPS)和指令长度的乘积来衡量的系统性能;
最小延迟L是指时钟频率,并受两个相邻时钟周期之间的时间窗口的限制;
能量E表示为获得一定功率而运行的系统的能耗水平,以瓦特为单位;
数量A表示系统的空间体积(即物理尺寸),并且是过程尺寸的函数;
阻力R量化了对采用新技术的市场的经济阻力。基本上,作者根据波士顿咨询集团(BCG)的经验曲线采用经济模型,该曲线解释了总产量与单位成本之间的关系(请参见此处)。
作者推断出价格单位和时间的对数刻度之间的线性关系,然后通过将历史数据(请参见此处和此处)与CLEAR进行比较来确认这种关系。
作者指出,由于MIPS指标对基本指令集的敏感性,它已被诸如浮点运算(FLOPS)之类的指标所取代。在整个历史中,CLEAR已被应用于各种处理器体系结构,在已知的基准套件(例如SPEC或LINPAC)中,其他性能指标均不可用。但是,为了使MIPS成为代表性的性能指标,作者将每个指令的长度加权(即乘以),从而以bit / s为单位给出了相对的整体指标。
计算机系统发展趋势
比较图4所示的所有四个指标后,从图1可以看出,当指标包含更多相关因素时,其与原始趋势的初始偏离点会在稍后出现。与CLEAR不同,CLEAR显示了所有数据的精确匹配。因此,从经验上我们发现,计算性能以每年大约翻一番的固定速度不断增长,并且与技术无关。当我们测试新的计算机时,例如IBM预测的基于集成光子的计算机(请参见此处),我们发现这些技术确实可以继续以每年两倍的速度增长(图1中的红色星标)。
此外,您会发现与2X /年趋势线的相对偏差可用于对计算系统指标进行分类。例如,与其他所有类型的计算机(例如笔记本电脑和移动设备)相比,超级计算机的额外开销成本(即物理尺寸,并发性,冷却,规模经济和制造成本低)显示出最差的CLEAR值更高的生产率(虚线圆圈,图1c,d)。超级计算机中使用的多核技术的高度并行性受到了从计算返回到阿姆达尔定律所描述的能量的挑战(请参阅此处))。尽管超级计算机具有petaflop性能,但整个基础结构类似于五到三十年前的计算机基础结构,这对其可伸缩性的未来提出了质疑。
清除分析
为了更详细地了解5个CLEAR因素中每个因素的相对影响,作者将指标分解为各个因素,彼此相对,以揭示一段时间内的实际驱动力。
图中使用的因素组合。 2代表C对LEAR,CLE对AR,CLEA对R(图2,C =能力,L =延迟,E =能量,A =数量,R =电阻)。另外,与所有其他因素相比,显示出排除率C',因为在半导体工业的早期,唯一的缩放因子是芯片上的组件数量。重要的是要注意,每个数据点的相对位置在X和Y轴上都比精确值更重要,因此两个轴都归一化为一个,可以比较每种情况。
由于蓝色和红色阴影区域分别表示线性增长和饱和区域,因此,随着对X轴考虑的因素数量增加(即相对时间),很容易检测到枢轴点向右的连续移动。为了理解这一点,可以将X轴上的因素视为指标的驱动力,而Y轴上的值表示所考虑的驱动力的实际跟踪条件。因此,线性域意味着X轴上的因素仍然主导着技术的发展,而技术的驱动力随着进入饱和域而开始转向其他因素。该结果与以下观察结果相吻合:计算机系统的演进始终以该恒定速率增长,并且与指标的差异仅在以下情况下发生:当其他驱动力出现时。
图2. CLEAR驱动力分析。
CLEAR指标分为四组,每组包括两个部分:一个用于展示技术发展因素的系数(X轴)和一个显示因素,其显示跟踪选定因素或因素组合(Y轴)的能力。结果表明,当考虑更多因素来描述计算系统的性能时,观察到与规范化开发的后期偏差。(a)难以捉摸的速度C与延迟能量消耗量成本(LEAR); (b)能力C与延迟能量数量成本(LEAR)的比较;(c)延迟能量(CLE)与数量成本(AR)的能力;(d)延迟能量数量能力(CLEA)与成本R的关系。为了更好地进行比较,将X和Y轴归一化为一个。线性增长和饱和区域分别用蓝色和红色阴影显示。
清除申请
重要的是,能够无缝跟踪各种技术的演变的能力使CLEAR能够预测未来的技术替代品并确定未来技术的标准,包括例如在电子和光子学之间的混合技术(请参见此处,此处,此处和此处)。
技术变革
当与有源等离激元器件混合时,片内光子互连最近显示出高数据传输能力(优于常规电互连)(请参阅此处)。尽管光学数据路由被认为是消除计算核心之间通信瓶颈的一种可能的解决方案,并且通常在数据中心和超级计算机中使用,但集成光子技术尚未在主流消费领域实现。起初这似乎令人惊讶,因为先前的研究表明光子-等离激元杂交具有优越的特性。所以问题是,为什么集成光子技术不用于大众市场产品?
为了回答这个问题,让我们根据进化时间和信号传播距离将电子键的CLEAR与杂化光子-等离激元键进行比较(图3)。在这里,使用等离激元“有源”构造块(光源,调制器,检测器,开关)进行光的操纵(请参见此处和此处)),而光传播是通过基于硅或氮化硅平台的低损耗光子进行处理的。将电子学与等离激元-光子混合体的这种变体进行比较,因为等离激元-光子混合体中有源和无源功能的分离会导致更高的性能(即,更低的等待时间,更高的吞吐量,更低的每位能量功能)。产生的表面曲线表明,CLEAR电子设备和等离激元光子具有一条收支平衡线(表面的交点,图3),该收支线在时间和信号传播距离上均按比例缩放。有趣的是,即使在今天,电子设备仍领先于光子学,其信息传输长度为1厘米。因此,与光子学相反,电子学仍在商业上用于晶体。因此,过去半个世纪中对电子产品的投资和发展为其他技术创造了技术可持续性(进入壁垒)。这种缩放导致晶体管的成本仅为光子器件成本的十分之一,甚至更低。在这里)。图3.芯片上电气(蓝色)互连和混合光子-等离子(红色)互连的CLEAR指示器的比较,具体取决于连接长度和技术开发时间。芯片尺寸= 1厘米,链接长度和写作年份(2019)用红色标记。已部署以下模型;a)基于芯片上晶体管和光学器件的数量的带宽模型,可以认为是摩尔定律的原始模型;b)基于库米定律的能效模型,该模型受Landauer极限kB * T * ln(2)≈2.75 sJ / bit(kB是玻尔兹曼常数; T是温度)的限制;在)
基于至2019年的技术发展模型的经济可持续性模型,根据该模型,电子渠道的成本不到混合渠道成本的十亿或百万分之一; d)一个并发模型(2006年后),描述了多核体系结构和电互连中“深色硅”的局限性。黄点位于2019年这两种技术的交汇处,那时Hybrid Plasmon-Photonics技术刚刚达到芯片的大小,并开始表现出芯片上最佳的CLEAR性能。
随着技术和制造工艺的改进,由于电子产品的成本曲线比光子学产品更为平坦,因此传输少量信息的单价收支平衡距离(即CLEAR)正在缩小,光子学产品随着时间的推移遵循幂定律。此外,随着电互连密度的缩放,成本开始增加,并且由于晶体管节点小于10 nm的基本物理问题而导致的额外成本(请参见此处)。相比之下,由于初始缩放是美国集成光子学研究所(AIM Photonics)的目标,因此目前混合光子-等离子体互连的成本很高)。由于纳米光子学的最新进展,现在可以进行缩放。增强光与物质相互作用的概念使在光电设备中产生紧凑的波长成为可能,其优点是由于低电容而具有高能效和高运行速度(请参见此处)。结果,随着时间的推移,电子技术和混合光子-等离激元技术之间的收支平衡距离有望进一步缩短。例如,IBM在2015年展示的基于CMOS的硅光子芯片已接近收支平衡(请参阅此处)。集成的光子学只有在其CLEAR性能的速度能够赶上计算系统的总体发展趋势时,才能取代电子学。
结论
从以上推理可以看出,CLEAR可以被视为一种通用的技术和经济指标,这不仅是因为其广泛的分层适用性(设备,互连,系统级别),还因为它具有适应特定技术应用的能力。例如,用于晶体内的网络杂交。不仅可以将CLEAR用作预测技术平台发展的性能指标,而且还可以通过在等式(4)中为每个因素增加权重来比较技术平台在不同使用条件下的整体能力。
在此最初提出的CLEAR度量标准中,所有五个因素都线性影响CLEAR值,但是,对于关键依赖于特定因素(或因素组合)的特定应用,CLEAR中的每个因素可以加权不同。为了确保可比性,即使在这些“调整的”度量标准之间,也可能必须确保所有系数的总和等于5,类似于归一化,例如量子力学中波函数的积分。例如,便携式设备系统可能具有严格的能量(E)和体积(A)约束,从而导致CLEAR度量C 0.8 L 0.8 E 1.2 A 1.2 R对于这种技术。的确,将来自不同调整指标的趋势与将来预测技术的能力进行比较将很有趣。
此外,我们可以感知到未来的通信通道或网络可以动态重新配置,从而允许芯片根据当前应用,负载,电源模式等更改其理想工作点。此类动态数据驱动系统(DDDAS)因其综合的认知处理能力而备受青睐。可以预料,计算机系统对各种约束的适应将与新兴的信息理论系统(如神经形态和储层计算)协同作用,其中“权重”的适应和调整可实现机器学习,残余微积分算术甚至是光学计算的嵌入式硅光子学。 (请参见此处,此处,此处和此处)。
值得注意的是,就像以前所有技术平台的性能预测指标一样,当新技术使用更多独特的物理功能时,CLEAR最终可能会偏离其原始趋势。目前,CLEAR充分涵盖了现代技术中的所有主要性能因素,这使得在撰写本文时可以准确地预测计算系统的发展。
因此,CLEAR不仅可以用作映射和预测前景的工具,而且还可以为基于硬件的智能和认知计算机控制平台铺平道路,在该平台上可以实时查看和优化性能和成本之间的折衷。
因此,CLEAR可以看作是一条新的摩尔定律,它完全反映了分层应用程序各个级别上技术发展的趋势。