据介绍,在AI时代,因为大模型对算力需求很大,GPT3.5的时候是1750亿参数,需要500个英伟达的卡,到了GPT5是10万亿的参数,需要50万张英伟达的卡。这种情况下,云将发挥出新的关键作用。
优胜教育官网中新网6月29日电(中新财经记者 吴涛)“大模型的高速发展使得AI不得不面临算力管理复杂、训练推理成本高、任务调度难等多方面发展瓶颈。”
栗蔚表示,根据调研,云原生除了作用于AI之外,之前它作用于很多互联网应用的研发,超过一半中国企业大部分互联网化应用程序都是云原生的架构,甚至传统的核心架构现在也都在云化。
“很多企业通过用了云原生,对于底下上千台服务器进行统一的纳管,从而全方位提升效率和降低成本。”栗蔚强调,云跟AI结合才能充分降低AI的工程化成本,让AI大模型真实地跑起来变成服务。(完)
“50万张英伟达卡计算是不可能在一个数据中心完成的,所以很多大模型计算跨域不可避免,但跨域以后对方是英伟达的卡吗?或者智算底层基础设施都不一定。这种情况下,我们需要什么?中间谁能把应用部署在算力上跑起来呢?”
近日,在蚂蚁数科举行的一场发布会上,中国信息通信研究院云大所副所长栗蔚指出,云原生凭借其高可用、弹性、可扩展等优势成为突破AI困境的关键,云原生PaaS平台的大模型产品工具链不断完善,将加速大模型技术在行业应用中落地。
栗蔚给出答案,她认为,就是云,AI时代几个发展瓶颈问题基本都是要靠云原生满足的。云原生屏蔽了底层算力的差异,其应用不在乎你底下是CPU还是GPU,还是用了什么样的规格的卡,我只是将应用部署在上面,用你的计算能力,所以云原生发挥了这样的作用。
网友评论更多
31襄阳i
选车、造车、用车,让智能机器人没有门槛🚐🚑
2024-12-07 22:55:41 推荐
187****8464 回复 184****1151:三千余家国际基金投资机构云集高交会,携万...🚒来自荆门
187****2306 回复 184****7167:从IFA 2024看海尔在欧洲如何成为主流高端品...🚓来自孝感
157****8120:按最下面的历史版本🚔🚕来自黄冈
85鄂州127
尼得科集团4家机床企业参展IMTS 2024🚖🚗
2024-12-08 0-1:24:56 推荐
永久VIP:台达任命史文祥担任中达电通机电事业部总经...🚘来自黄石
158****8332:智慧测量,莱姆电子携全行业产品亮相PCIM A...🚙来自咸宁
158****5859 回复 666🚚:打卡GAF2024全球紧固-连接-装配技术大会暨...🚛来自荆州
40宜昌hh
智能头号玩家,高创PH3驱动精益生产升级🚜🚝
2024-12-07 05:56:39 不推荐
随州jb:2024中国制造业综合实力200强暨中国装备制...🚞
186****1805 回复 159****1522:新质领航,聚力智造:华北工控邀您共赴2024...🚟