以下文章来源于学术头条 ,作者小婷
致力于学术传播和科学普及,重点关注AI4Science/大模型等前沿科学进展。
几十年来,神经科学在人工智能的研究历程中起到了举足轻重的作用,人工智能的奠基人 Donald Hebb、Warren McCulloch、Marvin Minsky 和 Geoff Hinton 最初的研究动力均源自对他们大脑工作机理的浓厚兴趣,当时的研究人员也一直试图模仿大脑的功能,构建神经科学与人工智能之间的桥梁。
1943 年,美国神经科学家麦卡洛克(Warren McCulloch)和逻辑学家皮茨(Water Pitts)在 “A Logical Calculus of Ideas Immanent in Nervous Activity” 一文中提出了神经元的数学模型,受人体大脑神经元的启发,机器学习领域早期的重要算法 —— 人工神经网络(Artificial Neural Networks)得以发展。
1949 年,加拿大神经心理学家 Donald Hebb 在《The Organization of Behavior》一书中首次提出的赫布理论,解释了在学习过程中大脑神经元所发生的变化,这一理论为后期机器学习的研究提供了理论支撑。Hebb 提出学习是通过大脑中突触强度的改变而进行的,一个突触强度的改变通常持续数十分钟,而一个神经元(节点)的时钟速度大约为一秒。
然而,从那以后,实验神经科学并没有直接推动机器学习领域的发展,这两门学科似乎都是独立发展的。
4 月 23 日,巴伊兰大学物理系和 Gonda(Goldschmied)多学科脑研究中心的 Ido Kanter 教授等人在《科学报告》杂志上发表了一项最新研究成果,成功地在实验神经科学和高级人工智能学习算法之间重建桥梁。
研究人员根据 Hebb 的理论,通过一项新的神经元培养实验,成功展示了一种受大脑启发的人工神经网络学习机制。该机制被用于手写数字识别时,其成功率大大超过了传统的机器学习算法。
Ido Kanter 教授说:"我们大脑中的一个学习步骤被认为通常会持续几十分钟甚至更久,而在计算机中,它的学习时间一般为纳秒级。虽然大脑的速度极慢,但其计算能力却超过了最先进的人工智能算法,或者说可以与之相媲美,“
为了重建这一桥梁,研究人员最初作出两个假设: