中国科学院开发出基于语义记忆的动态神经网络:相比静态最高减少 48.1% 计算量

2024-09-01 18:21IT之家 - 沛霖(实习)

IT之家 9 月 1 日消息,中国科学院微电子研究所等将人工神经网络与大脑的动态可重构性相结合,开发出基于语义记忆的动态神经网络

▲ 基于语义记忆的脑启发动态神经网络硬件软件协同设计

大脑神经网络具有复杂的语义记忆和动态连接性,可将不断变化的输入与庞大记忆中的经验联系起来,高效执行复杂多变的任务。

目前,人工智能系统广泛应用的神经网络模型多是静态的。随着数据量不断增长,它在传统数字计算系统中产生大量能耗和时间开销,难以适应外界环境的变化。

与静态网络相比,语义记忆动态神经网络能够根据计算资源权衡识别准确性和计算效率,可在资源受限设备或分布式计算环境中展现出色的性能。

IT之家获悉,在对 2D 图像数据集 MNIST 和 3D 点云数据集 ModelNet 的分类任务中,该设计实现了与软件相当的准确率,相比于静态神经网络减少了 48.1% 和 15.9% 的计算量,相比传统数字硬件系统降低了计算能耗。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享