针对目前人工智能技术发展,Intel认为目前将GPU运算性能用于超级电脑作为并行计算的普及作法,其实只是人工智能技术的一部分,重点依然在于如何让深度学习以更具效率方式完成训练,借此建立各类人工智能技术应用。而对于近年来ARM架构处理器持续强调的端点运算(Edge Computing),Intel也强调本身从终端设备到云端服务器均有完整布局,同时在软硬件部分也有相当完整的技术发展,借此支持不同人工智能技术运算需求。
根据Intel数据中心事业群副总裁暨人工智能解决方案技术长Amir Khosrowshahi说明,强调目前借助GPU执行性能的并行计算架构,其实仅只是人工智能技术的一部分,许多深度学习应用反而更聚焦在如何让机器以更具效率方式分析不同数据,并且从中找出有价信息,进而让机器能以学习结果反应在各类互动,例如让自动驾驶车辆“看见”前方路人时,即会自动启动刹车让车辆停下,或是在诸多记录找出规律的行为模式。
事实上,以现行的深度学习运算架构来看,许多设计其实多少还是采用GPU加速缩短学习时间,或是用于并行计算架构缩短运算所需时间,但确实如Intel说明,应用GPU的运算方式在所有运算架构设计里确实仅为其中一部分,更重要的还是取决人工智能技术应用模式,以及背后学习框架、学习模型如何设计。
举例来说,假设人工智能技术以反复学习正确应对的模式居多,或是需要短时间内完成运算的情况,确实藉由GPU加速会是较好的运算模式,而若涉及更多设备端的运算,或是必须有更多逻辑演算与判断的话,借助多组处理器的运算架构就显得更为重要。因此以Intel的立场而言,导入GPU的演算架构固然重要,目前在许多超级电脑、云计算也均借助NVIDIA、AMD等厂商GPU元件硬件性能进行加速,但在特定运算需求依然少不了处理器的执行能力。
▲Intel数据中心事业群副总裁暨人工智能解决方案技术长Amir Khosrowshahi
不过,就目前Intel在人工智能的软件技术布局部分,虽然Amir Khosrowshahi强调Intel人工智能技术是采跨部门资源整合发展,除了本身硬件技术优势之外,软件方面也从基层固件、软件工具到服务器端都有完整布局,同时投入发展资源比例几乎与硬件相同,但以目前Intel在人工智能技术的深度学习使用框架,除了本身透过收购Nervana取得的Neon学习框架资源,似乎尚未计划建造针对本身处理器架构深度优化的学习框架,主要还是与第三方厂商如Google TensorFlow,或是其他开放架构设计学习框家如Torch、Caffe或CNTK等合作,并且提供不同学习模型供开发者使用、修改。
但或许是考察目前人工智能发展技术仍处于初期阶段,因此Intel与其他厂商同维持以尝试、观望等情况投入技术研发,预期在技术发展方向更为明确,同时相关技术也更为成熟之余,Intel可能会以更俱全的软硬件整合布局人工智能技术发展。
从终端设备到云端服务器均有完整技术资源
而针对目前ARM架构处理器经常强调的端点运算模式,Intel表示目前Intel在设备端其实也有人工智能技术应用布局,例如在终端设备学习使用者操作习惯,让自动驾驶车辆可依据驾驶操作行为进行学习,同时在通信连接、云端服务器也都有完整技术资源,因此认为本身更具市场竞争优势。不过,Intel方面也坦承ARM架构处理器在移动设备具有相当技术优势,但本身同时具备设备到云端的技术解决方案,甚至也能结合、支持ARM架构处理器使用,在市场更具多元发展机会。
京ICP备14006952号-1 京B2-20201630 京网文(2016)1650-207号 沪公网安备 31011202006753号未成年人举报:legal@3dmgame.com
CopyRight©2003-2018 违法和不良信息举报(021-54473036) All Right Reserved
玩家点评 (0人参与,0条评论)
热门评论
全部评论