你的位置:首页 > 解决方案 > 行业相关

人工智能时代 芯片先行

2017-11-18 11:28:32      点击:      文章来源:中国安防行业网

  神经网络算法助推人工智能普及,计算能力需求爆发式增长:神经网络算法是当前最主流的人工智能算法,其通过海量样本数据进行机器学习,从而生成具备智能判断能力的模型。近年来,随着GPU等硬件计算平台性能的提升,以及互联网带来的大数据资源,神经网络算法已经被应用到人脸识别、语音识别等多个领域,实现了极高的准确率。但同时,神经网络算法的精确度提升十分依赖于海量的计算资源,计算能力的需求将在人工智能时代迎来爆发式的增长。

  软件加速遭遇瓶颈,AI专属芯片势在必行:神经网络算法应用的不断发展,使得传统的CPU已经无法负担几何级增长的计算量。传统CPU支持的指令集更加通用,主要针对非计算密集型的程序,其优化在于加速分支判断、逻辑判断等操作,对神经网络算法这种计算密集型的应用并不适合。在芯片产业的发展历史上,当软件加速方案已经远远达不到需求时,针对某一应用的硬件解决方案就会填补这一空白,从信号处理芯片DSP、图形芯片GPU到图像处理芯片ISP等,都是这一技术演进路径的案例。基于当下人工智能算法的广泛应用,AI专属芯片已成行业发展的必然选择。

  服务器端AI芯片:多种技术路线实现高并发计算:神经网络训练(Training)阶段的加速主要在服务器端完成。在这一过程中,计算节点的处理芯片已不再是传统的CPU,更适合神经网络计算特点的芯片方案被采用,包括GPU、FPGA、以及专属的ASIC芯片方案。其中GPU的浮点计算能力较为出色,FPGA架构更为灵活,适合迭代开发计算,而专属的ASIC芯片方案性能最优,但是初期研发成本较高,目前主要是谷歌、英特尔等巨头玩家参与。三种方案在成本、功耗、速度方面各有优劣,在当前的一段时间内会并存。

  终端AI芯片:应用场景驱动,市场前景广阔:随着人工智能场景的应用深入渗透到行业的各个领域,在终端,推理(Inference)阶段的计算能力越来越成为瓶颈。一些对即时性要求很高的应用场景,已经无法通过在云端进行推理计算的方式满足,终端AI芯片加速成为了必选的方案。于是,以低延时、低功耗为目标的定制化终端AI芯片成为了各种应用场景的选择,该领域典型的参与者有专注无人驾驶场景的Mobileye、机器视觉领域的Movidius、消费电子端的寒武纪等。我们认为,终端AI芯片更接近消费者,在硬件先行的前提下,未来如能形成丰富的终端AI应用生态圈,则快速增长的出货量将摊薄前期研发成本,形成行业发展的正反馈。

  • 杨经理 电话:158 6268 2025

    地址:太仓市五洋商城27幢

    电话:0512-53353533

    邮件:tz_yhl@163.com

    网址:http://www.tenzn.com

太仓天正智能科技有限公司 版权所有 All Rights Reserved

备案号:苏ICP备15050442号