现有的人工神经网络算法,其实是一种对大脑的软件模拟,是先用程序模拟出神经网络,再变成机器代码,在硬件CPU或GPU上去跑,这根本上跟人脑的思维方式是不同的。
人大脑的神经网络是软硬一体的,大脑不会先在某个区域把算法设计好,再去某个脑计算区域运行这个算法,我们的识别,计算,记忆,都是用一个庞大的神经网络通过千万亿万神经元瞬时完成的,这个神经网络只用了计算机几十分之一的能量就驱动了更大规模的神经元,这千万亿万神经元不会像电子计算机那样,有一个统一的CPU来指挥,它们是存储和计算同步完成的,不会先到某一个区域取指令,某一个区域取数据,再进行计算,它们也不会遵循什么时钟周期,更不会用一个时钟周期里电压的高低变化来生成0,1 来计算。
而存储,中央计算单元,时钟周期,0和1模式,恰恰就是现代电子计算机最最根本的机制,这说明,现代电子计算机本质上就不是模仿大脑运作最佳的硬件选择,图灵和冯诺依曼之所以设计了这种架构,第一是因为当时的电子和集成电路技术限制,第二是因为当时的计算形态主要就不是模仿人脑那种相对模糊的,概率式推理式的计算,而是非黑即白的,确定性的,严谨的数学计算。冯诺依曼体系计算机被证明非常适用于科学计算,也被随后广泛应用在自动控制,图形图像处理,管理应用系统,电子商务,社交媒体,数据库等等我们现在所能看到的几乎一切数字应用上,而到了现在的人工智能时代,我们需要机器做的,不再是机械式地执行预先设定的指令和规则,而是希望机器能具备像人一样瞬间判断和决策,模糊推理的能力,这就不得不让我们思考现有的计算机体系架构是否胜任支撑这样的机器,还是我们继续将就用一个适应原来计算形态的基础架构继续来"模拟"?
答案是我们必须考虑创新,摩尔定律已经在十年前开始失效,计算机的"大脑"从几百纳米走到5纳米,3纳米,几乎已经走到了物理极限,而且以人工神经网络为代表的新形态计算,已经让能耗和效率问题日益突显,未来无处不在的端侧和边缘测的智能设备需要更小的能耗以降低成本,需要更高的运行效率和实现更多更精准的功能;而随着深度神经网络的扩展(上百亿参数的模型涌现),云端服务器在训练算法模型的能源成本,已经到了一个惊人的地步。
也就是被誉为"未来电脑"形态的"类脑计算"成为业界大热点的根本原因和推动力。类脑计算将在本质上改变现有的CPU计算模式,用软硬一体优化的方式,让类脑型计算更贴近人脑的思考模式。比如,用一种硬件电路忆阻器。而不是软件,来模拟神经元。忆阻器通过物理性质来硬实现电压和电阻的函数(从而实现更多更复杂的函数),在运算的同时存储,而同时因为不用和内存及CPU反复交换数据,效率大大提高。这个领域综合了电子电气,材料学,物理学,计算机,人工智能等等多学科的理论和技术,堪称跨学科创新解决问题的一个典范。 —— 仅代表尹智 个人观点 Ken's personal view only