靠谱吗?这家新公司在做“存算一体AI芯片”
2018-07-05 15:52:46爱云资讯阅读量:976
做AI(人工智能)芯片已经很了不起,拓宽计算、存储之间的狭路也很不易,二者都是世界性的热点课题。没想到,今年3月才开始运营的这家公司声称要做“存算一体化”AI芯片,目前研发人员只有十几名!
这家公司究竟有何高招?
![](https://www.icloudnews.net/uploadfile/20180705/201807051554045443.png)
近日在京举办的“安创成长营”第五期路演上,北京知存科技有限公司CEO王绍迪博士介绍了他们做的存算一体化的AI芯片,特点是低成本、低功耗,目标是让AI设备无所不在。
AI潜力巨大
AI目前还处于发展阶段,当前落地的应用场景较少,没有达到社会的期望。随着AI算法的进步以及芯片算力的提升,未来将会出现一个更大的爆发点,会涌现更多的应用落地。
AI芯片作为AI的载体,被大家寄予厚望。据有关预测, 2020年AI芯片市场预计达到千亿量级。传统芯片巨头诸如arm、Intel、NVIDIA都通过自研和收购推出了数款芯片,互联网巨头诸如Google、亚马逊和微软等也都正推出和开发AI芯片。这个领域的创业公司就更多了,中国的几家头部公司就做得非常好。
AI适合“存算一体”
![](https://www.icloudnews.net/uploadfile/20180705/201807051554046942.png)
AI依赖的算法是一个庞大和复杂的网络,有很多参数要存储,也需要完成大量的计算,这些计算中又会产生大量数据。在完成大量计算的过程中,一般芯片的设计思路是将大量增加并行的运算单元,例如上千个卷积单元,需要调用的存储资源也在增大,然而存储资源一直是有限的。随着运算单元的增加,每个运算单元能够使用的存储器的带宽和大小在逐渐减小,可见存储器是AI芯片的瓶颈。
在很多AI推理运算中,90%以上的运算资源都消耗在数据搬运的过程。芯片内部到外部的带宽以及片上缓存空间限制了运算的效率。现在工业界和学术界很多人认为存算一体化是未来的趋势。
存算一体的分类
![](https://www.icloudnews.net/uploadfile/20180705/201807051554052546.png)
存算一体化分为几种:DRAM和SSD中植入计算芯片或者逻辑计算单元,可以被叫做存内处理或者近数据计算,这种方式非常适合云端的大数据和神经网络训练等应用;另一种就是存储和计算完全结合在一起,使用存储的器件单元直接完成计算,比较适合神经网络推理类应用。
知存研发的是后者,即将存储和计算结合到闪存单元中的存算一体。闪存技术的该技术已经非常成熟,商用几十年了,成本很低。
知存的独特技术
具体地,当前商用的神经网络非常庞大,拥有数百万至数千万的权重参数,或者推理过程中需要完成几百万到上千万个乘加法运算。传统的计算系统需要将网络权重参数存在片外的非易失性存储器中,例如NAND Flash或NOR Flash。
![](https://www.icloudnews.net/uploadfile/20180705/201807051554052000.png)
运算过程中,需要把部分需要的权重参数搬运到DRAM,再把小部分参数传入到芯片中的SRAM和eDRAM中,之后导入寄存器和运算单元完成运算。神经网络运算需要大面积SRAM和eDRAM来减少片内外数据搬运和提高运算效率,但是由于片上存储成本的限制,也需要高成本、高速度的DRAM来缓存片上无法容纳的权重参数和临时数据。
知存科技的存算一体化原理是:知存科技的Flash存储单元本身就可以存储神经网络的权重参数,同时又可以完成和此权重相关的乘加法运算,就是将乘加法运算和存储全部融合到一个Flash单元里。
例如,只需要100万个Flash单元,就可以存储100万个权重参数,同时并行完成100万次乘加法运算。
知存做的是这样一款芯片:深度学习网络被映射到多个Flash阵列,这些Flash阵列不仅存储,还和深度学习网络同时完成网络的推理,这个过程不需要逻辑计算电路。
这种方式的运算效率非常高,成本很低,单个Flash单元能够完成7、8 bit的乘加法运算。
前文提到知存科技的芯片有两个特点:1.运算效率高,相比于现在基于冯•诺依曼架构的深度学习芯片,大概能够提高运算效率10~50倍;2.产品成本低,节省了DRAM、SRAM、片上并行计算单元的面积消耗,简化了系统的设计,同时无需采用先进的芯片加工工艺,可以数倍地降低生产成本,几十倍地降低流片和研发成本。
当前阶段,知存科技主攻的是对成本和运算效率(功耗)敏感的应用,例如终端的低功耗、低成本的语音识别应用。未来,随着AI和物联网的发展,知存科技会拓展更多的应用场景,例如低成本、低功耗的感知应用和人机交互。
知存的人力资源
2014年,知存科技的创始人开始在美国加州大学圣芭芭拉分校的实验室做这项技术的研发,完成过6次流片和技术验证。2017年底在北京注册了公司,2018年3月正式开始运营,仅5个月就把设计送去流片。如果进展顺利,三四个月后就会完成芯片测试,争取2019年量产。
知存科技的团队成员毕业于北京大学、北京航空航天大学、美国加州大学洛杉矶分校、加州大学圣芭芭拉分校等学校。核心团队成员大部分都有十年以上的行业经验。团队目前有11个人,2018年年末会扩大团队规模。
如何看待XPoint存储技术?
Intel与美光2015年共同研制了3D XPoint技术,去年Intel推出了傲腾内存模组,特点也是提速AI和数据中心等的计算与存储之间的连接速度。知存如何评价它们?
王绍迪博士称:这是一项很新的技术,这项技术的selector做得很好。但目前主要问题是成本和系统支持度的问题。不过,随着产业链的发展,成本会越来越低,速度也会更快,系统也会更好地支持XPoint兼有的高速和非易失性的特性。
可见,作为存储器、内存或者他们的统一体(存算一体化)类应用,未来成本降低之后,会有非常大的优势。Intel在这个技术的市场推广上也投入很多精力,其他后来者可能会坐享其成。
评论:靠谱吗?
具体的技术细节,知存很少透露。但至少该公司的想象力很靠谱!
当下正如火如荼地举行“世界杯”足球赛,很多人买了彩票。笔者认为,知存能否成功,这有点像投资人买了彩票,兴许赌一把能赢呢?
- 亿铸ReRAM存算一体应用于AI大算力的新思路
- 打破冯诺依曼架构限制 国内研发存算一体AI芯片
- 靠谱吗?这家新公司在做“存算一体AI芯片”
- 微软将英伟达的GeForce Now集成到Xbox游戏页面中
- 微软的Designer应用登陆iOS和Android,带有人工智能编辑和创作功能
- OpenAI开发系统来确定其人工智能系统的智能程度,从1级到5级不等
- 以人工智能为重点的《复制法案》将使移除数字水印成为非法行为
- 开发者有福了,百度文心智能体平台免费开放文心大模型4.0
- 腾讯混元文生图开源模型推出小显存版本,仅需6G显存即可运行
- 神州鲲泰亮相北京数字安全大会,以智能算力构筑数据安全的坚实底座
- 快手大模型首次集体亮相WAIC 2024,用AI重塑内容与商业生态
- 空间智能:迈向下一代人机共融——WAIC 2024「AI预见」产业高峰论坛成功举办!
- 数据宝实力瞩目WAIC 2024,董事长圆桌对话剖析数据政策红利
- WAIC 2024海飞科GPU算力卡:单卡运行千亿参数AI大模型的先锋
- 戴尔科技亮相WAIC 2024
- 共话数字发展与青年未来,云知声创始人、CEO黄伟出席全球共享发展行动论坛第二届高级别会议分论坛
- 宇瞳光学与中科皓烨达成战略合作,共探冷加工与车载镜片新篇章
- 美图携手三星,以AI技术为手机图像领域注入创造力
- 携手火山引擎,三星Galaxy Z系列手机为用户带来AI新体验
- 华山A1000芯片助力智驾升级,东风奕派eπ007迎来重磅OTA
- 三星Galaxy智能穿戴新品发布:AI赋能 焕新体验
- 运动中的好声音,Shokz韶音创新驱动下的音质飞跃
- 打造丰富AI生态体验 三星Galaxy Z Fold6|Z Flip6及生态新品中国发布
- 中国电信麦芒30即将震撼来袭 AI智能生活一键直达
- 引领折叠屏新纪元 今晚7点锁定三星Galaxy Z系列中国新品发布会
- 容联云在WAIC 2024发布容犀大模型应用,重塑企业“营销服”!
- 浪潮云洲“产业融合一体化服务“模式 吹响特色产业强县“集结号“
- 车路云一体化建设:三旺通信TSN方案构建智能交通神经网络
- 玄武云·玄瞳全面升级,AI+SaaS引领消费品产业革新
- 车路云一体化规模化应用加速,路侧基础设施覆盖先行
- 仙斓科技与华为云签署全面合作协议,共推AI产业及生态蓬勃发展
- 曙光云跻身政务云领导者象限
- 中国移动与长春市政府、中国一汽、国汽智联签署长春“车路云一体化”试点城市建设战略合作框架协议
- 智慧矿山MapGIS赋能:云南省矿产资源三维可视化综合监管平台二期通过验收
- 中兴通讯与中汽研科技达成合作,共享智能汽车产业机遇
- 大模型加持!海信网络科技加速大模型应用落地 释放智慧交通发展新动能
- 京东方与中国击剑队合作,用显示与物联网技术提升训练效率与竞技水平
- 中移物联网“5G专网”助力工厂智能化升级
- 中移物联火瞳助力“幸福食堂”为银发居民用餐添实“慧”
- 从探索到引领,萤石推出以AI为核心的新一代架构EZVIZ HomePlay OS
- 累了热了“来朵棉花”:海绥物联网毛巾机闪耀中国-亚欧博览会