现货库存,2小时发货,提供寄样和解决方案
热搜关键词:
《自然》杂志于8月23日发布的一项研究报告中,报道了一种由IBM研究实验室开发的人工智能(AI)模拟电路芯片,其能效是传统数字计算机芯片的14倍。这一研究表明,该芯片在语音识别方面的效率超过了通用处理器,有望突破当前AI开发中因算力性能不足和效率低下而遇到的瓶颈。
随着人工智能技术的崛起,对能源和资源的需求也相应增加。在语音识别领域,软件升级极大地提高了自动转写的准确率,但由于在存储器与处理器之间移动的运算量不断增加,硬件无法跟上训练和运行这些模型所需的数以百万计的参数。为解决这一问题,研究人员提出了一种名为“存内计算”(CiM,或称模拟AI)芯片的解决方案。模拟AI系统通过在其自己的存储器内直接执行运算,避免了数字处理器在存储器和处理器之间移动数据所需的额外时间和能源消耗。预计模拟AI芯片能极大提升AI计算的能效,但迄今为止缺乏实际演示。
在这项研究中,研究团队开发了一款14纳米的模拟芯片,其中包含了3500万个相变化内存单元,分布在34个模块(tile)中。研究人员使用两个语音识别软件对该芯片的效率进行了测试,这两个软件分别是一个小型网络(谷歌语音命令)和一个大型网络(Librispeech语音识别),并与行业标准进行了对比。结果显示,该芯片在小型网络上的性能和准确率与当前的数字技术相当。对于更大的Librispeech模型来说,该芯片每秒每瓦能够执行12.4万亿次运算,系统性能估计最高可达传统通用处理器的14倍。
研究团队总结称,他们的研究在小型和大型模型中验证了模拟AI技术的性能和效率,有望成为商业可行的数字系统替代选择。这一突破性的研究为AI技术的发展提供了新的可能性,有望推动AI在各个领域的广泛应用。
*免责声明:以上内容和配图均来自网络。如有内容、版权问题,请与我们联系进行删除。