安徽发力算力投资新“风口”

发表时间: 2023-12-03 11:40:09 文章出处:百叶窗

  随着ChatGPT的火爆全球,各类通用AI大模型也如雨后春笋般涌现。AI,已然成为时代发展的新风口。

  科大讯飞的星火大模型、百度的文心一言、抖音的云雀大模型、商汤科技的商量SenseChat、华为的盘古大模型、腾讯的混元大模型……百“模”大战的竞争,背后其实是算力的竞争。

  如果说,一个个大模型是一朵朵鲜艳的“花”,那么算力就是“土壤”,没有算力支撑海量数据的训练,大模型永远也不够智能和“聪明”。

  大模型需要大算力,算力大小决定着AI迭代与创新的速度,也影响着经济发展的速度。算力的稀缺和昂贵,已成为制约AI发展的核心因素。

  一键生成文稿、AI换脸、自动生成视频、代写代码并制作程序……如今,全球慢慢的变多用户开始用AI来生成内容。

  人工智能带来的创造力和想象力,远不止这些。从工业、信息业,到教育、医疗、金融以及无人驾驶领域,通用AI大模型有着海量的应用场景,可谓是未来发展的新“风口”。

  人们不太了解的是,AI之所以超级“聪明”,那是因为它的底层是海量的算力支撑。

  对于投资者而言,投资AI行业,在现阶段就是投资算力。因此智能算力如今已成为投资的新“蓝海”。

  前不久,OpenAI发布GPT-4 Turbo模型,刚推出不久,因需求量过大,服务器就火爆到崩溃。

  算力是数字化的经济时代的核心生产力,决定了大模型的发展高度。然而,智能算力基础设施建设投入强度大、能耗约束强、运维成本高。单靠有突出贡献的公司发力,市场自由配置资源,短时间内难以建成大规模、集中、稳定的智能算力,这就需要多元发力。

  以当前比较火热的“算力租赁”业务来看,建算力设施回本并非遥遥无期,而是能像“买房后租房”一样回笼资金。

  所谓算力租赁,即对算力进行出租,是一种通过云计算服务提供商租用计算资源的模式。算力使用者无需投入大量资金购买计算设备,却能够正常的使用高效稳定的计算服务,并结合实际使用情况支付相应费用。

  11月14日,国内一家科技公司表示,由于内嵌一款芯片的高性能算力服务器算力需求大幅度的增加,相关高性能运算设备持续涨价,算力资源持续紧张,公司拟将所受托运营的该芯片的高性能算力服务器算力服务收费上调100%。

  前不久,工业与信息化部等6个部门联合发布的《算力基础设施高水平质量的发展行动计划》显示,到2025年,中国算力规模将明显提升,推动工业、金融、医疗、交通、能源、教育等领域的算力应用,每个领域都将打造30个以上的应用标杆。

  那要从大模型的底层算法说起。就像人的大脑有不计其数的神经元一样,大模型本质上是有千亿规模参数的深度神经网络,使用海量训练数据通过训练算法对模型一直在优化、迭代,大模型才能越来越“聪明”。这需要极其庞大的算力支撑。

  有多庞大呢?看看算力的单位FLOPS(每秒浮点运算次数)。以1P(FLOPS)为例,这相当于每秒计算1000万亿次,而100P则相当于5万台高性能电脑的算力,足以可见计算量之巨。

  要实现这么庞大的算力,传统计算机上的CPU芯片已“带不动”了。为实现超大算力,国际上主要是采用NPU芯片,也叫AI芯片,它可是个计算“利器”,如果说传统CPU的运算是自行车速度,那么AI芯片就是飞机的速度。

  不仅是运算快,AI芯片还选择最佳方案。比如前面有一条河,有桥可以渡河,有船可以渡河,有直升机可以渡河,还可以游泳渡河,我们最终选择哪一种方式渡河快还舒服呢?AI芯片会在最短时间之内一遍遍模拟所有可行的方法,然后挑选出一个优选方式,如果有1亿种,就模拟1亿次,千亿种就模拟千亿次。

  更厉害的是,AI芯片它还能叠加,实现“集团作战”,通过“插卡集成”的方式组成AI服务器,实现成倍的运算。它们不间断地运算输出超级海量数据,从而“训练”AI大模型这颗“大脑”。

  数据显示,中国智能算力市场规模将由2019年的31700P增长至2026年的1271400P,2019年至2026年复合年均增长率约为69.4%。

  算力,已成为AI的底座。科大讯飞AI工程院院长潘青华认为,目前,大模型研发高度依赖高端AI芯片。高计算性能、高通信带宽和大显存成为大模型训练必不可少的算力底座,这些都依赖于强大的“硬件”。所以算力基础设施的集群化是未来的大趋势。

  如果说算力是“风口上的底座”,那么为夯实这个“底座”,安徽迅速“入局”。

  “抢抓新一轮人工智能革命机遇,依托大模型、大数据、大算力支持通用AI发展”“智能算力建设要适度超前,加快形成‘算力一网化、统筹一体化、调度一站式’”……安徽省委、省政府主要领导对加快智能算力建设工作都作出批示,反映了安徽高层对前沿科技发展的战略眼光。

  今年7月,科大讯飞宣布讯飞星火和华为昇腾联合,全力打造我国通用智能新底座,让国产大模型架构在自主创新的软硬件基础之上。

  一方面,讯飞星火认知大模型基于训练推理一体化设计,实现大模型稀疏化、低精度量化的技术突破,能高效适配昇腾AI芯片,加速大模型的行业落地应用和迭代;另一方面,以昇腾AI芯片为核心,软硬件协同优化,构建算力集中、性能优越、供给稳定、数据安全的大模型训练集群。

  今年10月24日,科大讯飞宣布与华为联合发布基于昇腾生态的“飞星一号”平台,启动更大参数规模的星火大模型训练。

  不仅仅是企业之间的合作创新,服务于国家“东数西算”战略的智能算力中心冉冉升起。

  今年9月1日,长三角(芜湖)智算中心在芜湖市揭牌,首期规划建设3000P智算能力,随着芜湖集群智算项目持续落户园区,将建成长三角地区规模最大的万P智算产业园,并逐步推进人工智能芯片国产化。9月26日,芜湖集群(润六尺)智算中心1000P算力正式交付,形成芜湖集群首个智算能力。

  “我们积极引入大模型和下游应用企业,强化招商引资。目前,已签约数据中心项目10余个,计划投资额约2550亿元。”据芜湖市发改委相关负责人介绍,将举全市之力推进集群建设,聚力打造全国一体化算力网络长三角双核节点、中部地区核心节点。

  《安徽省智能算力基础设施建设方案(2023—2025年)》提出,坚持需求牵引、适度超前,政府引导、多元投入,自主可控、绿色集约的原则,引导全省智能算力基础设施集约化、规模化、绿色化发展。到2025年,全省力争新建成智能算力超12000P。

  不论是半导体厂房里忙碌的身影,各大数据中心闪着灯光、高速运转的服务器,还是资本市场上火热的“算力”板块……从厂房、机房到市场,都可以看到人类对AI改变世界的期待,对让这颗“大脑”足够“聪明”的期望。

  世纪新“风口”,安徽正加速布局算力基础设施建设,开展“算力+”产业的招商引资,招引海内外更多合作伙伴加入,共同在AI的“东风”下迎风起舞,探寻人类未来的科技之梦。(记者 王弘毅)

  随着ChatGPT的火爆全球,各类通用人工智能大模型也如雨后春笋般涌现。AI,已然成为时代发展的新风口。

  科大讯飞的星火大模型、百度的文心一言、抖音的云雀大模型、商汤科技的商量SenseChat、华为的盘古大模型、腾讯的混元大模型……百“模”大战的竞争,背后其实是算力的竞争。

  如果说,一个个大模型是一朵朵鲜艳的“花”,那么算力就是“土壤”,没有算力支撑海量数据的训练,大模型永远也不够智能和“聪明”。

  大模型需要大算力,算力大小决定着AI迭代与创新的速度,也影响着经济发展的速度。算力的稀缺和昂贵,已成为制约AI发展的核心因素。

  一键生成文稿、AI换脸、自动生成视频、代写代码并制作程序……如今,全球越来越多用户开始用AI来生成内容。

  人工智能带来的创造力和想象力,远不止这些。从工业、信息业,到教育、医疗、金融以及无人驾驶领域,通用人工智能大模型有着海量的应用场景,可谓是未来发展的新“风口”。

  人们不太了解的是,AI之所以超级“聪明”,那是因为它的底层是海量的算力支撑。

  对于投资者而言,投资人工智能行业,在现阶段就是投资算力。因此智能算力如今已成为投资的新“蓝海”。

  前不久,OpenAI发布GPT-4 Turbo模型,刚推出不久,因需求量过大,服务器就火爆到崩溃。

  算力是数字经济时代的核心生产力,决定了大模型的发展高度。然而,智能算力基础设施建设投入强度大、能耗约束强、运维成本高。单靠龙头企业发力,市场自由配置资源,短时间内难以建成大规模、集中、稳定的智能算力,这就需要多元发力。

  以当前比较火热的“算力租赁”业务来看,建算力设施回本并非遥遥无期,而是能像“买房后租房”一样回笼资金。

  所谓算力租赁,即对算力进行出租,是一种通过云计算服务提供商租用计算资源的模式。算力使用者无需投入大量资金购买计算设备,却可以使用高效稳定的计算服务,并根据实际使用情况支付相应费用。

  11月14日,国内一家科技公司表示,由于内嵌一款芯片的高性能算力服务器算力需求大幅增加,相关高性能运算设备持续涨价,算力资源持续紧张,公司拟将所受托运营的该芯片的高性能算力服务器算力服务收费上调100%。

  前不久,工业和信息化部等6个部门联合发布的《算力基础设施高质量发展行动计划》显示,到2025年,中国算力规模将显著提升,推动工业、金融、医疗、交通、能源、教育等领域的算力应用,每个领域都将打造30个以上的应用标杆。

  那要从大模型的底层算法说起。就像人的大脑有不计其数的神经元一样,大模型本质上是有千亿规模参数的深度神经网络,使用海量训练数据通过训练算法对模型不断优化、迭代,大模型才能越来越“聪明”。这需要极其庞大的算力支撑。

  有多庞大呢?看看算力的单位FLOPS(每秒浮点运算次数)。以1P(FLOPS)为例,这相当于每秒计算1000万亿次,而100P则相当于5万台高性能电脑的算力,足以可见计算量之巨。

  要实现这么庞大的算力,传统计算机上的CPU芯片已“带不动”了。为实现超大算力,国际上主要采用NPU芯片,也叫AI芯片,它可是个计算“利器”,如果说传统CPU的运算是自行车速度,那么AI芯片就是飞机的速度。

  不仅是运算快,AI芯片还选择最佳方案。比如前面有一条河,有桥可以渡河,有船可以渡河,有直升机可以渡河,还可以游泳渡河,我们选择哪一种方式渡河快还舒服呢?AI芯片会在最短时间内一遍遍模拟所有可行的方法,然后挑选出一个优选方式,如果有1亿种,就模拟1亿次,千亿种就模拟千亿次。

  更厉害的是,AI芯片它还能叠加,实现“集团作战”,通过“插卡集成”的方式组成AI服务器,实现成倍的运算。它们不间断地运算输出超级海量数据,从而“训练”AI大模型这颗“大脑”。

  数据显示,中国智能算力市场规模将由2019年的31700P增长至2026年的1271400P,2019年至2026年复合年均增长率约为69.4%。

  算力,已成为人工智能的底座。科大讯飞AI工程院院长潘青华认为,目前,大模型研发高度依赖高端AI芯片。高计算性能、高通信带宽和大显存成为大模型训练必不可少的算力底座,这些都依赖于强大的“硬件”。所以算力基础设施的集群化是未来的大趋势。

  如果说算力是“风口上的底座”,那么为夯实这个“底座”,安徽迅速“入局”。

  “抢抓新一轮人工智能革命机遇,依托大模型、大数据、大算力支持通用AI发展”“智能算力建设要适度超前,加快形成‘算力一网化、统筹一体化、调度一站式’”……安徽省委、省政府主要领导对加快智能算力建设工作都作出批示,反映了安徽高层对前沿科技发展的战略眼光。

  今年7月,科大讯飞宣布讯飞星火和华为昇腾联合,全力打造我国通用智能新底座,让国产大模型架构在自主创新的软硬件基础之上。

  一方面,讯飞星火认知大模型基于训练推理一体化设计,实现大模型稀疏化、低精度量化的技术突破,能高效适配昇腾AI芯片,加速大模型的行业落地应用和迭代;另一方面,以昇腾AI芯片为核心,软硬件协同优化,构建算力集中、性能优越、供给稳定、数据安全的大模型训练集群。

  今年10月24日,科大讯飞宣布与华为联合发布基于昇腾生态的“飞星一号”平台,启动更大参数规模的星火大模型训练。

  不仅仅是企业之间的合作创新,服务于国家“东数西算”战略的智能算力中心冉冉升起。

  今年9月1日,长三角(芜湖)智算中心在芜湖市揭牌,首期规划建设3000P智算能力,随着芜湖集群智算项目持续落户园区,将建成长三角地区顶级规模的万P智算产业园,并逐步推进人工智能芯片国产化。9月26日,芜湖集群(润六尺)智算中心1000P算力正式交付,形成芜湖集群首个智算能力。

  “我们积极引入大模型和下游应用企业,强化招商引资。目前,已签约数据中心项目10余个,计划投资额约2550亿元。”据芜湖市发改委相关负责的人介绍,将举全市之力推进集群建设,聚力打造全国一体化算力网络长三角双核节点、中部地区核心节点。

  《安徽省智能算力基础设施建设方案(2023—2025年)》提出,坚持需求牵引、适度超前,政府引导、多元投入,自主可控、绿色集约的原则,引导全省智能算力基础设施集约化、规模化、绿色化发展。到2025年,全省力争新建成智能算力超12000P。

  不论是半导体厂房里忙碌的身影,各大数据中心闪着灯光、高速运转的服务器,还是长期资金市场上火热的“算力”板块……从厂房、机房到市场,都能够正常的看到人类对AI改变世界的期待,对让这颗“大脑”足够“聪明”的期望。

  世纪新“风口”,安徽正加速布局算力基础设施建设,开展“算力+”产业的招商引资,招引海内外更多合作伙伴加入,共同在AI的“东风”下迎风起舞,探寻人类未来的科技之梦。(记者 王弘毅)