您的位置:主页 > 新闻快讯 >

单个神经元也能实现DNN功能,图像分类任务准确率可达98%,登上Natu

来源:IT之家   时间:2022-04-09 16:12:12  阅读量:17486   

人工神经网络的尽头是一个神经元。

单个神经元也能实现DNN功能,图像分类任务准确率可达98%,登上Natu

—— 没准儿还真有可能。

当前,最先进的 AI 系统通过创建多层神经网络来模仿人类大脑,旨在将尽可能多的神经元塞进尽可能小的空间。

可惜,这样的设计需要消耗大量的电力等资源,而产生的输出结果与强大且节能的人脑比起来相形见绌。

最近,柏林工业大学的研究小组提供了一个新思路:把任意大小的深度神经网络折叠成单神经元,这个神经元具有多个延时反馈回路。

关于研究成果的论文发布于 Nature 子刊这个单个神经元的 AI 大脑概念的提出,无疑给神经网络的发展指明了一个新方向

下面就来看看这是一项怎样的研究吧!

具体方法

研究团队设计了一种多层前馈深度学习神经网络的完全时间折叠的方法Fit—DNN 的诞生主要受到folded— in—time概念的启发,即:使用单一的延迟环路配置和输入数据的时间复用来模拟环形拓扑结构

传统的深度神经网络由多层神经元组成,以前馈结构耦合如果用一个神经元来实现传统 DNN 的功能,需要保留各层的逻辑顺序,同时找到一种方法来顺序化层内的操作这只能通过在时间上分割以前同时进行的过程来实现:单个神经元在正确的时间接受正确的输入,依次模拟每一层的各个神经元

传统的相邻层之间的连接,转变成单个神经元在不同时间的连接,即:层间连接变成了延迟连接在不同时间对同一神经元进行不同的加权,权重由反向传播算法确定这类似于单个客人通过快速切换座位并说出每个部分,来模拟大型餐桌上的对话

Fit—DNN 的核心由一个具有多个延迟和调制反馈的单一神经元组成,上图展示了其结构:标着字母 f 的黑色圆代表神经元,它在 t 时的信号为 x ,这个信号是数据 J ,偏移量 b 和反馈信号之和。

可调节的元素用方块表示:数据信号由输入向量 u 产生,蓝色方块中的矩阵包含输入权重偏置系数产生灰色方块中的偏置信号每个反馈环路实现一个延迟和一个时间调制,来产生反馈信号最后,使用输出权重矩阵从信号 x 中获得输出

注意,为了获得数据信号 J 和输出,需要进行适当的预处理或操作后处理。

与传统多层层经网络的等效性

单神经元的 Fit—DNN 在功能上真的可以等同于多层神经网络吗如下图所示,Fit—DNN 可以将具有多个延迟环的单个神经元的动态性转化为 DNN

图 a 展示了信号 x 的时间演化可以分为长度为 T 的时间间隔,每个间隔模拟一个隐藏层,实线上的黑点表示节点,θ 代表节点分离值。

图 b 表示原始的时间轨迹被切割成长度为 T 的区间,在各区间内,节点根据其网络位置被标记。

图 c 由图 b 的旋转所得,在此基础上增加了一个输入和一个输出层。

这些连接是由节点之间的动态依赖关系决定的,这些依赖关系可以根据 θ 的值精确计算当节点分离值 θ 较大时,网络节点之间将形成熟悉的多层 DNN 形状

不过,当节点分离值 θ 较小时,每个节点的状态都依赖于前一个节点,而不是完全独立这些额外的 惯性 连接在图 c 中用黑色箭头表示

虽然研究者们用 D = 2N — 1 延迟环路恢复了一个全连接的 DNN,但模拟测试表明,这并不完全符合要求实际上,用更少的延迟环路就可以获得足够的性能在这种情况下,Fit—DNN 将实现一种特殊类型的稀疏 DNNs

可见,在一定条件下,Fit—DNN 可以完全恢复一个没有卷积层的标准 DNN,此时,它的性能与多层 DNN 相同单神经元的 Fit—DNN 将前馈多层神经网络的拓扑复杂性,通过延迟环结构折叠到时域这个延迟系统本身就拥有一个无限大的相空间,因此,只要有一个带反馈的神经元就足以折叠整个网络

Fit—DNN 的计算机视觉功能测试

研究人员使用 Fit—DNN 进行图像降噪,即:从噪声版本中重建原始图像他们把强度为 1 的高斯噪声加入 Fashion—MNIST 数据集的图像中,并将高斯噪声视为值在 0和 1之间的向量然后截断阈值 0 和 1 处剪切所得的向量条目,以获得有噪声的灰度图像

如上图所示,a 行包含来自 Fashion—MNIST 数据集的原始图像,b 行为带有额外高斯噪声的相同图像,这些噪声图像作为训练系统的输入数据c 行表示获得的原始图像的重建结果

可见,Fit—DNN 的图像恢复效果不错不过 Fit—DNN 真正的问题是,时间循环的单个神经元是否能产生与数十亿个神经元相同的输出

为了证明 Fit—DNN 和时间状态下的计算能力,研究人员选了五个图像分类任务:MNIST40,Fashion—MNIST41,CIFAR—10,CIFAR—100,以及 SVHN。

实验对比了隐藏层的节点数不同时,Fit—DNN 在上述任务中的表现结果表示,对于相对简单的 MNIST 和 Fashion—MNIST 任务,单个神经元取得了很高的准确率但对于更具挑战性的 CIFAR—10,CIFAR—100 和 SVHN 任务,单个神经元的准确率较低值得注意的是,这里的 Fit—DNN 只使用了权重矩阵可用对角线的一半如果增加节点的个数 N,将有效地提高性能

研究团队

经典的多层神经网络,如火爆全球的 GPT—3,目前已有 750 亿个参数,比其前身 GPT—2 的参数量要多 100 倍据估计,仅仅训练一次 GPT—3 就需要相当于丹麦 126 个家庭一年使用的电力,或者约等于开车往返一次月球的耗能柏林团队的研究人员认为,Fit—DNN 可以对抗训练强大神经网络所需能源成本的上升

科学家们相信,伴随着技术的发展,该系统可以扩展到从悬浮在时间中的神经元创建 无限数量的 神经元连接。

感兴趣的读者可以戳下面的链接继续深入了解。

论文链接:

参考链接:

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
热文榜单
猜你喜欢