云服务商排名(云服务公司排名)

电子发烧友网报道(文/李弯弯)AI、5G等新兴产业的蓬勃发展催生了海量数据计算需求,同时AI算法模型持续迭代,复杂化日益凸显,数字经济时代下市场需要强大、普惠的算力引擎。而从供给端来看,先进制程的迭代周期变长,使得芯片能效比的提升并不显著。

针对AI应用特点实现硬件架构创新是必然趋势,墨芯人工智能CEO王维在某论坛上谈到,依托对AI的理解用软硬一体解决算力瓶颈问题是行业公认的发展方向。他认为,稀疏化能够有效应对算力瓶颈,实现原理是,不存储和不处理零值,从而得到更小且更快的模型。

软硬一体化稀疏路径符合AI计算核心诉求

软硬一体化稀疏路径符合AI计算高吞吐、低功耗、低延时的核心需求。AI稀疏产业化的成功要素包括:1、跨算法、软件、硬件领域的协同开发;2、拥有持续多层次优化稀疏运算的底层算法能力;3、架构需保证可编程性、高度可拓展属性及快速迭代能力。

稀疏化路径已具备批量化工程应用能力。英伟达在2020年推出的A100产品中,就率先引入稀疏Tensor Core实现4:2结构化稀疏,稀疏是神经网络轻量化的重要手段,英伟达稀疏化产品有效引领市场应用趋势。稀疏化架构可与现有AI软件生态深度适配,例如英伟达直接使用Tensor Core进行稀疏矩阵乘累加操作,无需进行底层编程。

云服务商排名(云服务公司排名)

墨芯人工智能CEO王维演讲(电子发烧友拍摄)

基于双稀疏特点,自研核心AI架构

墨芯是全球最早研发稀疏化算法及架构的企业,并在2018年开始稀疏化的全球专利布局,该公司也是最早商用稀疏化产品实现销售的,第一款FPGA产品在2019年Q4开始产生销售。

王维表示,现有芯片架构设计在稀疏化支持中面临较大局限,比如CPU架构,可支持跳点运算,但因其算力限制,仅能够支持边缘端应用,无法支持更大的模型,再比如GPU架构,只能进行并行计算,所有元素(包括0元素)均参与运算,无法实现高倍数加速。

基于双稀疏特点,墨芯自研核心AI架构。其双稀疏架构设计理念:平衡的权重和激活张量剪枝技术,可将精度损失降至最低的前提下保持对硬件的友好度;墨芯独有的剪枝和压缩技术可以再许多网络和应用中实现最多高到32倍的稀疏。

墨芯首款稀疏化云端AI芯片Antoum-1已经回片,实测性能ResNet 50超33000SPS;墨芯板卡S4(单颗Antoum-1)仅30W功耗,实测性能实现英伟达主流产品T4近16倍能效比;墨芯板卡S4对比英伟达主流产品Latency可以做到1/4-1/5。

云服务商排名(云服务公司排名)

墨芯人工智能CEO王维演讲(电子发烧友拍摄)

稀疏化计算产品商业落地,将赋能AI产业变革。一、助力云服务商降低单位算力拥有成本,2021年,Nvidia在中国营收超过38亿美金,其中阿里腾讯等头部互联网公司采购金额基本超过1亿美金。随着AI持续发展,数据量的指数上升导致AI芯片的需求会持续上升,云服务商采购额将逐年增加,因此他们对降低成本的诉求非常强劲,基于Antoum-1的推理卡S4相较于英伟达对标推理卡T4,ResNest50及BERT每FPS/SPS成本降低约85%。

二、助力云服务商缩减能耗成本,电费支出是数据中心最大的营业成本,平均数据中心近60%的营业成本是电力成本,降低能耗是数据中心和云服务商的最大痛点,2021年全国数据中心的耗电量占社会总用电的近3%,且增长率已连续8年超过12%,基于Antoum-1的推理卡S4相较于Nvidia主力推理卡T4,ResNest50及BERT每FPS/SPS能耗成本降低约90%。

小结

目前基于稀疏化的AI架构主要面向云端训练场景,不过理论上来说,稀疏化训练由于能大幅降低对内存、带宽与计算的需求,十分适合训练,未来墨芯在满足推理市场的需求后,将切入训练市场,建立稀疏训练生态,产品在软件层面对训练做更多的开发,支持训练专用的算子,同时硬件上也会为训练定义架构。

    

使用无须实名的阿里云国际版,添加 微信:ksuyun  备注:快速云

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 cloud@ksuyun.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.hanjifoods.com/20664.html