雷竞技raybet新闻中心

新型AIRAYBET雷竞技首页官网,芯片纷纷亮相

2025-05-22
浏览次数:
返回列表

  英国初创公司Vaire正在研发一种计算机芯片技术,该技术可以大幅降低运行人工智能工作负载所需的能耗。该公司表示,对其新芯片组件的初步测试表明,它可以将运行许多计算(包括人工智能中使用的计算)所需的电量减半。

  如果结果可靠——尽管 Vaire 芯片的测试套件目前正在运往潜在客户和学术实验室,但这些结果尚未得到独立验证——这项突破可能会推动这项名为可逆计算的非凡技术在商业上的大规模应用。最终,可逆计算有望实现芯片的广泛应用,使其能够回收几乎所有所需的能量,雷竞技raybet,并且几乎不产生热量。

  Vaire 芯片背后的技术可以解决与 AI 热潮相关的最重大挑战之一:AI 所需的能源。装满图形处理器(通常用于训练和运行 AI 模型的专用计算机芯片)的数据中心的电力需求正在飙升。微软甚至与Constellation Energy达成协议,重新启动宾夕法尼亚州臭名昭著的三哩岛核电站一座已封存的核反应堆,全部用于为该软件公司的一个新 AI 数据中心供电。

  国际能源署预测,到 2030 年,全球数据中心的电力需求将增长一倍以上,达到 945 太瓦时,约占全球能源需求的 3%,相当于日本目前消耗的能源量。AI 工作负载将是这一增长的最大驱动力,未来五年数据中心 AI 工作负载的能源需求将增长四倍。此外,许多 AI 业内人士认为 IEA 的预测过于保守。

  这种能源消耗也引发了人们对人工智能对环境影响的担忧。人工智能系统的碳足迹难以估算,因为它很大程度上取决于特定数据中心的电源。美国和欧洲的许多人工智能数据中心都使用可再生能源建造,例如太阳能、风能或核能,这些能源的二氧化碳排放量不高。但在其他地区,人们大量使用天然气或燃煤发电,导致二氧化碳排放量增加。此外,还有人担心,科技公司为其数据中心购买了过多的绿色能源,以至于迫使其他潜在客户不得不重新依赖化石燃料。

  用于冷却人工智能数据中心的水量也日益令人担忧。由于 GPU 比其他类型的计算机芯片耗电更多RAYBET雷竞技首页官网,,它们产生的热量也更多,这意味着冷却配备 GPU 的数据中心需要更多的能源和水。许多人工智能数据中心都建在地下水资源已经捉襟见肘的地区。

  连续创业者罗道夫罗西尼 (Rodolfo Rosini)在 2021 年创立 Vaire 时就致力于解决这一挑战。他表示,即使在那时,人工智能模型也明显在变得越来越大,需要的能量也越来越多,而且人工智能“很快就会变得非常庞大”,他说道。

  对于罗西尼来说,显而易见的解决方案是可逆计算。(稍后将详细介绍可逆计算。)他与剑桥大学专门研究非常规计算的研究员汉娜厄利(Hannah Earley)以及芯片设计公司 Arm 前首席研究员安德鲁斯洛斯

  (Andrew Sloss)共同创立了 Vaire。三年来,Vaire 一直隐秘运营,仅从伦敦的 7percent Ventures 和一小群天使投资人那里获得了 50 万美元的种子资金。它利用这段时间完善了可逆计算芯片的设计。去年,该公司从 7percent Ventures、Lifeline Ventures、SeedCamp 和移动广告公司 Heyzap(被 Fyber 收购)的联合创始人 Jude Gomila 那里筹集了额外的种子资金。该公司总共筹集了 1000 万美元,这个数字以前从未报道过。该公司目前在伦敦、剑桥、加利福尼亚桑尼维尔和俄勒冈州波特兰的办事处拥有约 20 名员工。

  用于人工智能的图形处理器 (GPU) 会产生如此多的热量,因为它们比其他类型的计算机芯片(例如驱动传统服务器的中央处理器 (CPU))消耗更多的电能。但是,任何微处理器芯片(无论是 GPU 还是 CPU)用于执行计算的电能几乎 100% 都会转化为热量并损失掉(工程师们常说,计算机只不过是一个碰巧执行计算的烤面包机)。大部分热量是在电路用需要计算的下一组信息覆盖当前保存的信息时产生的。

  物理学家们至少从 20 世纪 60 年代初就知道,如果计算机电路中的逻辑过程可以逆转——即电路中的信息恢复到其原始状态而不是简单地被覆盖——那么就有可能节省和回收芯片使用的绝大部分电能。问题在于RAYBET雷竞技首页官网,,制造一个能够做到这一点的芯片是一个极其艰巨的工程挑战,尤其是使用与制造所有现代计算机芯片相同的硅基 CMOS(互补金属氧化物半导体)制造工艺。尽管如此,麻省理工学院的研究人员克服了许多障碍,并在 20 世纪 90 年代末使用 CMOS 构建了可逆计算芯片的工作原型。

  然而,当时几乎没有动力将可逆计算商业化。摩尔定律——规定在给定硅面积上可封装的晶体管数量每两年翻一番——没有显示出终结的迹象。摩尔定律有一个重要的推论,称为库米推论:随着晶体管尺寸的不断缩小,执行任何给定计算所需的电量每1.6年就会减少一半(这一速度甚至比摩尔定律本身还要快)。只要这些趋势持续下去,就无需担心计算机芯片对功耗的渴求。“随着芯片上晶体管密度的增加,能源效率的提高是免费的,”马萨诸塞大学阿默斯特分校计算机与电气工程教授尼尔安德森说道。

  但现在摩尔定律遇到了许多物理限制。最先进的芯片制造工艺可以打印像素分辨率小至两纳米(相当于人类头发宽度的四万分之一)的晶体管。在这种尺寸下,晶体管存储一位信息所需的能量非常少,因此存在量子力学效应引入芯片计算随机误差的巨大风险。晶体管尺寸进一步缩小意味着这些效应将导致它们变得不可靠。

  热量是另一个问题。自 2005 年以来,芯片设计师一直将芯片上晶体管的时钟速度(以 GHz 为单位)保持基本恒定。这是因为,如果电路循环速度过快,会产生大量热量,有损坏晶体管的风险,实际上就是烧坏电路。热量还会干扰信号在电路中的传输,从而引入误差。此外,在较高温度下,电子实际上移动得更慢,从而限制了电路的运行速度。为了在恒定的循环速度下提高处理能力,芯片设计师增加了更多能够并行处理不同计算部分的处理核心,而不是试图让每个核心每秒执行更多计算。这使得工程师能够继续提升芯片的整体性能,但也使得提高芯片能效变得更加困难。

  可逆计算为此提供了一种解决方案。“可逆计算是一种科学合理的前进方向,”新墨西哥州阿尔伯克基市桑迪亚国家实验室高级计算研究员布莱恩蒂尔尼说。

  罗西尼说,当他最初想到创办 Vaire 时,他联系了许多世界领先的芯片公司,以为这些公司已经有团队在研究可逆计算。令他惊讶的是,这些公司中没有一家在积极推进这项技术。他说,只有一家公司似乎考虑过,但这家公司告诉罗西尼,他们的研究团队有太多其他优先事项,无法投入太多精力和资金来尝试实现它。“他们说这在名单上排得太靠后了,”他说。

  设计可逆计算芯片,尤其是使用传统的芯片制造方法,非常棘手。罗西尼最终聘请了迈克弗兰克 (Mike Frank) 来协助 Vaire 的设计。雷竞技raybet,弗兰克是一位研究员,其职业生涯的大部分时间都致力于可逆芯片的设计,先是在麻省理工学院 (MIT) 和佛罗里达大学,后来在桑迪亚国家实验室 (Sandia National Laboratories)。

  要将电能通过电路循环利用,需要将一种称为谐振器的模拟元件与芯片上常见的数字元件结合起来。无线电长期以来一直使用谐振器之类的元件,但Vaire为可逆计算设计的谐振器必须产生一种不寻常的信号形状——梯形而非传统的正弦波。完善这种谐振器是Vaire必须克服的关键工程挑战之一。

  可逆计算芯片的运行速度必然比传统计算机芯片慢,因为每个逻辑过程都需要先进行逆向运算,然后组件才能执行下一个正向计算。Rosini表示,Vaire的设计通过包含比传统芯片更多的处理核心来弥补这种较慢的电路速度。这种并行处理对于人工智能应用尤其有效,因为这些应用需要在神经网络的各个节点之间进行许多类似的数学运算,例如矩阵乘法、卷积和梯度调整,才能得出输出。事实上,GPU 用于 AI 的原因是它们包含数千个并行处理器,可以执行这些同时计算(相比之下,CPU 包含的处理核心要少得多,更适合需要按步骤执行操作的计算)。

  许多早期的可逆计算尝试都试图匹配 CPU 的性能,这意味着可逆计算固有的较慢时钟速度是一个明显的劣势。Rosini 说,Vaire 的见解是将可逆计算架构应用于本质上是 GPU 芯片的设计,其中已经存在大量并行处理,较慢的时钟速度影响不大。“我想说,我们带来的最大创新不是技术。我们只是说,‘嘿,这项技术可用于构建 GPU,这是以前没有人做过的,’”他说。

  了解Vaire工作的学术研究人员表示,他们一直在热切地等待首批芯片原型的测试结果。四位接受《财富》杂志采访的研究人员均表示,尽管理论上可逆计算芯片可以实现几乎100%的节能,但如果Vaire能够展示其首款芯片的节能效果,哪怕只是两位数的百分比,也将意义非凡。“如果他们能够展示一款采用可逆电路和可逆时钟(即电能被回收利用)的芯片,并展示出其能效比执行相同计算但使用标准电路和传统时钟的传统CMOS芯片有所提升,那么这将是向前迈出的重要一步,”马萨诸塞大学的安德森说道。Vaire

  表示,目前为止,他们已经通过计算机模拟证明了其谐振器组件实现了50%的节能。目前,整块实体芯片的测试批次正在从亚洲的半导体制造厂运往工程团队,但尚未进行评估。过去,就像20世纪90年代麻省理工学院的原型芯片一样,由于需要为额外的组件供电,以及可逆电路物理架构所需的更长的电路路径,芯片的部分节能效果可能会被削弱。

  罗西尼表示,如果Vaire的芯片能够展现出显著的节能效果,它将“打响”芯片公司之间构建可逆计算芯片并优化设计以节省更多电量的竞赛的“发令枪”。他说,像Vaire这样的公司只需证明其可行性即可。他将其比作,在SpaceX证明其技术可行性并改变整个行业经济状况之前,很少有航天机构或公司考虑使用可重复使用的火箭部件。他表示,他并非不知道Vaire在让公司接受新的计算范式方面面临的挑战。他说,整个“非常规计算”领域“是50年来被英特尔

  扼杀的公司的坟墓”。但他表示,他认为人们对人工智能能源消耗的担忧日益加剧,因此现在是尝试的最佳时机。

  德国科学家开发出一种突破性的人工智能芯片,该芯片以人脑为模型,可直接在现场进行实时计算,同时无需依赖云服务或互联网连接即可确保完全的网络安全。

  巴伐利亚州慕尼黑工业大学 (TUM) 的研究团队设计了一款名为 AI Pro 的芯片,将内存和处理单元结合在一个紧凑的神经形态架构中,模仿人类识别模式和做出决策的方式。

  这款一平方毫米的芯片由该大学人工智能处理器设计教授 Hussam Amrouch 博士开发,模仿了人类大脑处理信息的方式,使其能够独立学习和运作,同时功耗比传统人工智能芯片低十倍。

  该芯片目前处于原型阶段,由位于德累斯顿的半导体制造商格芯(Global Foundries)生产,包含约1000万个晶体管。虽然这与NVIDIA高性能处理器中集成的2000亿个晶体管似乎相差甚远,但该芯片提供了完整的数据隐私、卓越的能源效率以及真正的设备智能,而这些优势往往是行业巨头所缺乏的。

  Amrouch 强调,该芯片利用一种名为“超维计算”的概念实现了这一点,这种方法将不同的数据点分组并关联起来,从而得出推论。简而言之,该芯片的学习方式是发现相似性和模式,而不是处理海量数据。

  因此,该芯片无需处理海量汽车图像,而是通过将汽车与四个车轮、道路使用情况和典型形状等特征关联起来,来理解汽车。但据安鲁奇介绍,这款新芯片的真正独特之处在于,它能够像人类一样,通过识别相似性进行推理和学习。

  此外,类似大脑的思维方式还有一个显著优势,那就是它消耗的能量要少得多。在试运行期间,AI Pro 仅消耗 24 微焦耳,而同类芯片的功耗则要高出 10 到 100 倍。Amrouch 称其为创纪录的数值,并将这一突破归功于专业算法、创新处理器架构和新颖的数据处理方法的结合。

  Amrouch 表示:“现代处理器架构、算法专业化和创新数据处理的结合使得 AI 芯片变得与众不同。”

  该团队表示,AI Pro 专为特定应用量身定制。其架构紧密集成了内存和处理单元,可实现实时现场决策。这对于医疗保健、机器人和自主导航等行业意义重大,尤其是在互联网接入不可靠或数据隐私至关重要的环境中。

  “这使得它们非常高效,雷竞技raybet,”Amrouch 声称,并补充说,配备该芯片的智能手表可以现场处理敏感的心率或血氧数据,无需将其传输到外部服务器,而无人机则可以在飞行过程中分析导航模式,而无需依赖卫星链路。由于数据保留在本地,延迟和网络安全风险都大幅下降。

  该原型机售价约为 33,700 美元(30,000 欧元),目前尚未准备好量产。不过,该团队并不担心与大型科技公司竞争。他们的目标是打造一种新型的 AI 芯片,这种芯片高效、安全,并且专为特定任务而非纯粹的计算能力而打造。

  “ NVIDIA构建了一个依赖云数据并承诺解决所有问题的平台,而我们开发了一款能够提供定制解决方案的 AI 芯片,”Amrouch 在新闻稿中总结道。“这是一个巨大的市场。未来属于拥有硬件的人。”

  研究机构 IMEC(比利时鲁汶)首席执行官 Luc Van den hove 呼吁半导体行业采用三维、可重构的 AI 芯片,以应对快速变化的 AI 软件。

  路透社在发表前看到的一份声明中称,人工智能算法的开发速度比当前开发专用 ASIC 来解决人工智能数据流和计算中的特定瓶颈的策略要快。

  专用集成电路可能需要一到两年的时间来开发,并需要六个月的时间在晶圆厂制造。

  据路透社报道,范登霍夫表示:“搁浅资产存在巨大的固有风险,因为当人工智能硬件最终准备就绪时,快速发展的人工智能软件社区可能已经发生了变化。”

  据路透社描述,范登霍夫提出的是一个三维、可编程的人工智能计算处理元素阵列。

  英伟达凭借其为人工智能提供多处理GPU,发展成为最大的半导体公司。这些GPU足够通用,能够处理不断开发的多种类型的人工智能算法。此外,其CUDA并行计算平台和编程模型也使其免受竞争。

  但即便如此,Nvidia 的 GPU 并非特定算法最节能的解决方案。因此,超大规模计算平台和其他公司一直在寻求开发 ASIC 加速器,以应对数据中心的特定工作负载。

  范登霍夫表示,虽然较大的公司可能能够承担得起这一点,但对于大多数公司来说,这是有风险且不经济的。

  随着人工智能的前沿从大模型(LLM)转向多模式代理人工智能(Agentic AI),算法变革的步伐甚至可能正在加快。IMEC 首席执行官预计将提出,未来的人工智能芯片将多种人工智能计算方式组合成一个块状处理单元——即所谓的超级单元(Supercell)。这样,可编程片上网络将能够链接和编程资源,以动态地满足算法需求。

  路透社的描述听起来让人联想到现场可编程门阵列 (FPGA),但其抽象程度比原始的门级查找表 (LUT) 更高。超级单元(阵列中的构建块)很可能由丰富的内存计算处理组成,以支持广泛的 AI 需求。

  虽然这种方法看似合理,但需要注意的是,如果AI算法持续偏离组件超级单元支持的某些计算方式,那么“AI版FPGA”将包含冗余硅片,并成为一种昂贵但可能仍然节能高效的解决方案。平衡性能、功耗和面积(PPA)仍然是芯片设计人员面临的挑战,而FPGA传统上因其上市时间优势而被选中,但单位成本更高。

  数十年来,IMEC 一直是全球领先的半导体研究中心,并与领先的半导体公司合作开展竞争前项目。这使得 IMEC 能够提出并评估许多目前处于前沿的技术,包括 FinFET、全栅晶体管、背面配电和芯片集。

搜索