如果要聊起当今IT界最有影响力的公司,NVIDIA恐怕已经超越了苹果的地位。在AI时代来临后,NVIDIA的GPU市场占有率超过80%,拥有着绝对的话语权。不过,在具体构建AI框架时,开发者仍旧是以外置储存为主流。为什么NVIDIA提供的AI数据中心方案,不采用自家的储存呢?
以当前AI企业的发展现状来看,大部分公司仍旧集中将数据储存在数据中心,仅有一小部分会上传云端或储存在边缘。而在数据中心的构建中,专业化的外置储存扮演着十分重要的角色。
NVIDIA之所以不推出自研的储存产品,从产业线的角度来说并不算意外。当今的IT产业很少采用全栈覆盖的形式,不仅是开发成本巨大,封闭的开发环境也很容易让产品研发速度更不上环境中的技术迭代。尤其在互联网时代,开放本身才是主旋律。
通过提供主要框架,开放不同节点的自定义功能,有助于框架更好地落地到更多场景中,满足不同用户的个性化需求。
另一方面,如果NVIDIA强制用户使用自身的储存方案,那么数据备份、数据迁移以及数据修复等也是一项大工程。数据体量越大的公司,越难以接受这种方案。因此开放储存方案,对于NVIDIA来说反倒是一个更好拥抱市场的举措。
从技术角度而言,NVIDIA本身研发的重点也不在储存上。虽然企业有足够的研发实力,但比起分散开发精力,还不如主动“让贤”,拉拢更多的储存厂商。
借由这些厂商固有的用户市场,来推行NVIDIA的AI框架,从而达到互惠互利的局面。这种做法,不论对于厂商还是用户而言,都是更加便捷的选择。
发表评论 取消回复