您的位置: 硬件 > CPU > 新闻详情

人工智能技术发展,类神经处理芯片可能成为关键

时间: 2017-03-23 10:31 来源:3dmgame.com 编辑:夕阳月下

  近期Google人工智能团队DeepMind宣布提出全新演算方式,让人工智能系统可在重复学习情况下,不会因为将原本曾经学习知识所建立连接记录复写,产生“忘却”现象,而将使系统依据学习知识重要性加强记忆能力,进而达成类似人脑融会贯通的学习效果。
  而在未来人工智能发展模式中,对应协同运算的类神经处理芯片(neuromorphics)或许将成为技术发展重要关键。
  以现阶段的人工智能技术,其实免不了地还是藉由反复比对数据、找出其中规则而形成学习结果,例如通过让电脑视觉持续识别行人图像,日后在装载此项电脑的自动驾驶车辆即可依据学习结果判断应该立即启动煞车,避免车辆撞击前方行人。
  而这样的学习模式,其实在几十年前就已经开始进行,例如过去IBM“深蓝(Deep Blue)”便是藉由分析大量棋路来判断下一步下子位置,主要通过处理器运作性能完成整个演算流程。但由于仅仰赖处理器性能难免需要较长时间才能完成计算,因此后续的人工智能系统架构便开始导入显卡硬件资源,藉由GPU较高的图像处理能力加速整体运算效率,进而缩短深度学习、分析所需时间,如此才让人工智能系统实际反应速度加快。
  在近期的发展里,则进一步仿照人脑导入类神经网络系统架构,让人工智能系统可将各类学习信息彼此连接,进而串接成为“知识”,同时藉由学习比重强化记忆能力,让学习效果产生融会贯通的学习效果,避免在持续累积学习过程中发生系统将先前记录“知识”复写情况。
  但即便Intel、NVIDIA等处理器厂商提出运算性能再高的处理器、GPU,面对越来越大的信息传输量,以及更加讲求即时的执行效果,许多人工智能应用运算如自动驾驶可能无法全部藉由车辆处理器元件完成所有运算,而藉由云端协同运算也可能因为联机传输效率产生误差,因此在终端设备的预先感知运算也越来越显得重要,使得作为辅助主要处理器元件的类神经处理芯片设计,将有可能成为未来人工智能技术发展关键之一。
仿照人体神经网络,让人工智能系统运作更“活”
  其实类似的设计,早在许就之前就已经提出,亦即通过外部处理元件进行辅助运算,借此降低主要处理器运算资源负担,不但可促使整体运算效率提升,更能有效减少系统能耗。例如在通过单一处理器执行所有运算可能需要花费65W电力,但藉由协同运算元件辅助之下,也许无需发挥完整电力损耗即可完成所有运算需求,同时仅需原本不到一半的执行时间。
  因此,未来人工智能系统发展将有更具体的软硬体整合设计,并非仅只是处理器运算效能提升,或是在软件运算构架的改变,而预期会针对特定运算模式打造合适的类神经芯片,借此对应更快、更低能耗的运算效果。
  举例来说,智能喇叭可藉由独立芯片专司识别使用者口语指令,同时芯片本身可预先写入各类语意库,借此加快语音操作识别效率与正确度,而无需藉由装置内主要处理器进行运算,或是将录制语音传递至云端进行远端运算,一来一往地反而造成运算效率偏低等情况。在配合各类运算元件可自主预先完成运算之下,人工智能系统即可展现更快反应速度,同时识别效果也更为正确。
  不少看法认为,发展人工智能系统的关键在于数据累积多寡,其实不尽然是完全正确。人工智能系统要能顺利发展,固然需要有充足的学习信息,如同人脑必须通过长时间阅读、聆听等方式累积知识,但如何更有效率地累积知识、更快速地在需要时候使用这些知识却更为重要,因此藉由累积必要的信息量,配合全新软硬体整合运算模式,预期会是未来人工智能系统主要发展方向。

玩家点评 0人参与,0条评论)

收藏
违法和不良信息举报
分享:

热门评论

全部评论