最近,听到了一个好消息。
AI 算力领域的“ 图灵奖 ”—— MLPerf 测试,发布了一个关于当前主流 ai 芯片的基准性能的测试结果。一家首次参加测试的芯片企业——墨芯人工智能,化身“ 草根英雄 ”,火速制裁了AI芯片的霸主英伟达。墨芯 S30 芯片在主流 AI 模型之一的图像分类( ResNet50 )中,以 95784 FPS 的单卡算力夺得全球第一。是英伟达现役最强 GPU——A100 的 2 倍,是即将上市的英伟达 H100 的 1.2 倍。对芯片不太了解的差友,可能不太了解这事的重要性。市场研究公司 Omdia 调查显示:英伟达占据了全球人工智能( AI )处理器 80.6% 的市场份额。而作为他的旗舰产品 A100、H100 几乎代表了全球同类芯片的最高水平。如果墨芯 s30 真能超越英伟达最新科技的话,说不定双方的团队已经在洽谈收购的事情了。不过,更逆天的是,墨芯 S30 竟然用 14nm 纳米的制程就暴打了 4nm 工艺的英伟达最强 GPU——h100 系列。这是真的 6 翻了。虽然,每一年都有一两家企业叫嚣着:拳打英伟达、脚踩英特尔。但是能用 14nm 工艺超越 4nm 工艺的芯片公司,英特尔看了都要馋。所以要是不出意外的话,凭借这个技术,名不经传的墨芯公司完全可以,名扬大中华,技术封锁美利坚,然后带着欧盟 27 个小弟称霸世界了。虽然,这个叫做 MLPerf 的性能测试,权威且保真。比如,虽然墨芯公司官方的宣传里,着重强调了“ 算力全球第一 ”。但后续有人扒出了,这个“ 全球第一 ”的数据经过了“ 美化 ”的处理。原来,这个 MLPerf 测试它是分为 Closed( 固定任务 )和 Open( 开放优化 )两组。Closed 代表的固定任务分组,进行的是正式比赛。也就是说,厂商们,需要运行统一的算法,对同一个模型图像分类( ResNet50 )进行计算,实现芯片之间的性能比较。而这个 open 分组就是用来展示一些创新性的成果的,也就是所谓的表演赛。在这个组别里,只要不改变测试的内容,你想怎么玩都行。于是,墨芯 s30 凭借着“ 稀疏化 ”的算法,用“ 无规则格斗 ”的打法胜了英伟达的“ 空手道 ”。然后,公司再一运作,删删减减,一个全球算力第一的营销广告就这么华丽的出现。又一个营销鬼才。不过这岂不是证明了墨芯用的稀疏算法,能大幅增加ai芯片的算力?就是在 ai 模型的训练过程中,把一些不重要的运算过程去掉,大大增加计算的效率。这就像识别一个超清的图像,如果我们降低到标清的水平,传输速度就会快上许多。但是,这种成倍提升算力的“ 黑魔法 ”怎么会没有代价呢?一来, 这种提升算力的方式应用场景比较小,不适合高精度的模型训练。二来,算力是通用的,ai 的模型并不是,这就需要根据不同的模型,研究不同的稀疏算法。但问题的重点在于,稀疏算法并不是墨芯一家的专利,英伟达家的 h100 也能支持。而且,英伟达依然是目前唯一一家在每轮 MLPerf 基准测试都参与所有主流算法测试,然后横扫各项测试成绩的全能选手。所以说,回到 ai 芯片的性能本身,我们还是很难否认英伟达在这方面的统治力。不过,抛开这次的“ 吊打英伟达 ”的乌龙事件不谈,最近几年国内还是涌现出一批优秀的国产 ai 芯片。比如在今年 3 月,壁仞科技诞生了一枚名为 BR100 的芯片。这颗芯片 16 位浮点算力在 1000T 以上,8 位定点算力达到了 2000T 以上,打破了此前一直由国际巨头保持的通用 GPU 全球算力纪录。而 19 年,华为发布的昇腾 910 芯片的算力也号称是当时国际顶尖水平的两倍。不过,当国内芯片的性能开始触碰到全球算力的天花板的时,我们才发现差距不止在算力上。国内的一大批创业者们,早已经在追赶英伟达的过程中,撞上了第二堵南墙:生态。2016 年前后,ai 的浪潮席卷中国,人人都想做“ 中国的英伟达 ”。但后来,国内的厂商们慢慢发现AI芯片陷入了一个困境:ai 芯片无法成为一个单独的产品。英伟达的GPU在AI应用中很难被替换,因为英伟达的GPU除了能处理AI的工作,还能进行图形计算等。即便AI专用芯片性能大幅提升,也不能满足最终应用的所有需求,客户还要再购买GPU。以至于,大家都以兼容英伟达的软件开发系统目标,如果不兼容,代码重新开发或者移植的成本太大了。之所以会有这样的问题,是因为英伟达依靠在 gpu 上的先发优势建立了自己的生态--CUDA ,一套与英伟达芯片配套的软硬件开发的工具包。能为几乎所有主流的 ai 模型服务,同时大量的开发者也在反哺和完善这个生态。据 2021 年英伟达官方最新数据显示,英伟达生态的开发者数量已接近 300 万, CUDA 在过去 15 年总计下载量达 3000 万次,过去一年下载量达到 700 万。国内还停留在,拿着一本野外求生指南让客户自己学的阶段时。甚至送来了一个贝爷。而英伟达的软件生态,尤其是 CUDA 相关的核心部分都是闭源、封闭的。在这样的封锁下,想要将自家的软件与英伟达的生态兼容的难度可想而知,建立一个新的 AI 生态更是痴人说梦。一位国内AI芯片公司软件的负责人直言:“ CEO 和 CTO 都听不懂我的工作。一些国内 AI 公司创始人对软件的认知,相比领先的国际大公司,我认为有十几年的差距。”英伟达 GPU 强大的产品力加上顶尖的 CUDA 软件生态,使得它在AI领域的势力不可动摇。包括微软、三星、 Snap 等在内的 25000 多家企业客户,都接入了英伟达的 ai 推理平台。因为他不仅比你更强,还比你更努力。在过去的十年中,英伟达在研发方面的支出持续扩大,根据财报,2021 年英伟达研发投入达到 39.24 亿美元。所以,在这种全面的领先下,我们很难相信有什么公司可以在ai芯片领域,一步跨越大山一样的英伟达。而相对于全球其他的竞争者们,我们还面临着芯片制程的问题。但即便如此,差评君觉得,差距越大,我们更应该脚踏实地地发展。不要幻想一日赶英超美,而是紧紧跟在对手的身后,就像一头猎豹,等待敌人犯错。声明:本文经授权转载自“差评君”公众号。转载仅为学习参考,不代表本号认同其观点,本号亦不对其内容、文字、图片承担任何侵权责任。市值四倍于英特尔,英伟达踩上数据爆发的风口 商业数据派聚焦丨英伟达CUDA在深度学习中扮演着什么角色?ai芯天下如何看待墨芯S30计算卡超越英伟达H100,中国AI芯片突然这么猛了吗?知乎2021年全球十大芯片公司财报营收及研发支出一览 芯广场NVIDIA and the battle for the future of AI chips活动奖励:
上传2000个以上资料:奖励500元京东卡
上传1200个以上资料:奖励350元京东卡
上传700个以上资料:奖励200元京东卡
上传300个以上资料:奖励100元京东卡
活动期间,所传资料被下载次数最多的用户,奖励500元京东卡+1000e币
活动时间:2022.9.22 -2022.12.20
扫码参加,资料上传活动
[ 新闻来源:电子工程专辑,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
全部评论