作者:宇多田
出品:虎嗅科技组
封面来自谷歌
穿着黑色羽绒马甲,顶着一头凌乱的白发。在今年英伟达最重要的产品发布会上,略显不修边幅的老黄,终于从烤箱里端出了一块让人期待太久,但却又让显卡迷们措手不及的gpu产品。
让人兴奋的,是传闻已两年有余的新架构ampere,姗姗来迟的7nm制程,以及实现了大飞跃的性能。对英伟达来说,a100,是一个有着跨时代意义的产品。
但它的目标用户,却并非是一手把英伟达捧上神坛的游戏玩家。
这次,英伟达瞄准了一个更大、更有意愿掏钱的金主群体。
一统云服务巨头“后院”
这次的a100,是英伟达的企业级gpu产品 v100的继任者,专门为数据中心“玩家”而打造。
后者在2017年一经推出,就在两年内获得了巨大成功,直接打入了包括亚马逊、微软、阿里以及腾讯等云服务巨头的数据中心核心地带,成为各家gpu计算服务团队不可缺少的芯片产品。
至于为何在这个市场一路畅通无阻。一方面,是gpu的并行运算结构对训练机器学习和深度学习模型有着天然优势。
云服务商早已集体默认,与人工智能相关的任务,从数据处理效率、功耗等多方面考虑,使用gpu进行模型训练是最好的选择之一。
无论是阿里还是腾讯云,与gpu相关的产品页面,基本都涵盖了像英伟达v100与t4等热门型号的企业级gpu产品。
一位阿里工程师告诉虎嗅,目前几乎所有的感知类深度学习任务,都需要用到大规模深度学习,必须基于多机多卡进行模型训练。
图片截自阿里云
而a100,据英伟达声称其在人工智能推理和训练方面比 v100要快近20倍。对此,自动驾驶公司文远之行技术总监钟华给出了更加细节化的解释。
实际上,人工智能开发者最关心的主要是两个参数:
fp16
来源:虎嗅网