您现在的位置是:首页 > 云计算 >

阿里云,多次降价意欲何为?

2024-05-27 10:19:10作者:路沙来源:中国信息化周报

摘要 5月21日,在AI智领者峰会(武汉站)上,阿里云宣布对其通义千问GPT-4级主力模型Qwen-Long进行大幅降价。根据最新公告,该模型的API输入价格从原先的0 02元 千tokens锐减至0 0005元 千tokens,降幅高达97%。...

    5月21日,在AI智领者峰会(武汉站)上,阿里云宣布对其通义千问GPT-4级主力模型Qwen-Long进行大幅降价。根据最新公告,该模型的API输入价格从原先的0.02元/千tokens锐减至0.0005元/千tokens,降幅高达97%。阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示,这意味着,1块钱就可以购买200万tokens,相当于5本《新华字典》的文字量。

  据了解,这是自2024年2月以来,阿里云官宣的第三次降价。2月29日,阿里云宣布中国区全线降价,100多款、500多种规格的产品直降20%,最高降幅55%;4月8日,阿里云宣布海外市场全线降价,覆盖全球13个地域节点部署的核心云产品、500多个产品规格,平均降幅23%,最高降幅59%。此次降价,则覆盖9款商业化及开源系列模型。

  此次阿里云大模型降价,实际上可以理解为阿里云公共云降价策略的一种延续。同时,也表明在MaaS(模型即服务)成为重要趋势的背景下,阿里云不仅要重构云计算基础设施体系和商业模式,更要推动大模型的普及应用,从而寻求形成“大算力+大模型”的新业务闭环。正如刘伟光所说:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计到2024年年底,大模型API日调用次数将突破100亿。”

  目的不是引发“价格战”

  我们看到,除了阿里云宣布下调大模型的输入、输出价格之外,百度文心一言、字节跳动旗下豆包大模型、智谱AI大模型等也宣布了各自的降价策略。

  例如,百度宣布,其两款主力模型 ERNIE Speed、ERNIE Lite 将全面免费;豆包通用模型pro-32k版、pro-128k版在企业市场的推理输入价格仅为0.0008元/千tokens、0.005元/千tokens,较行业降幅达99.3%、95.8%;智谱AI大模型宣布个人版 GLM-3Turbo模型产品的调用价格从5元/百万tokens降低至1元/百万tokens。GLM-3 Turbo Batch 批处理API也便宜了50%,价格为1元/200万tokens。

  行业普遍认为,此次降价潮,势必将引发大模型领域的“价格战”。然而,此“价格战”非彼“价格战”。

  互联网早期的价格战,往往以同行业不能承受或者低于利润的手段快速获取客流量,抢占市场份额。长此以往,不仅会伤害到企业本身的利润,还容易引发行业内的恶性竞争,从而导致生态链的破坏。例如,当年的移动支付之争、社区团购之争以及线上打车之争等。

  而此次大模型降价与互联网早期的价格战相比,在驱动因素、目标、重点和影响存在显著差异。大模型降价更多是基于技术创新和行业生态构建,而不是简单粗暴的基于市场竞争和用户争夺。

  对此,刘伟光表示,阿里云大模型降价并不是短期竞争行为,而是长期战略选择。由此来看,价格降低的背后意味着大模型结构、训练、推理等成本的持续优化。同时,这也是推动大模型进入到价值创造阶段的重要因素。

  让大模型“百花齐放”才是真意

  从阿里云AI智领者峰会(武汉站)上获悉,湖北企业正在积极拥抱大模型。湖北日报、武商集团、武汉莱博等已接入阿里云通义千问,率先将大模型应用于传媒、零售商业、科研学术等领域。

  例如,湖北日报旗下的极目快讯基于通义多模态大模型打造了“极目明眸”智能体,能协助编辑快速完成热点分析、选题策划、素材搜集、文案生成,在保证内容安全的基础上,大幅提高媒体生产效率;武商集团基于阿里云通义家族的通义千问、通义万象、通义晓蜜、通义析言等模型正在开发零售场景的AI应用;武汉莱博接入通义大模型后,使得论文检索、提炼、总结和学术论文翻译等方面的成本进一步降低。

  武商集团资讯部部长助理陈迪表示,在集团内部举办的AI创业大赛上,围绕营销、客服问答、BI报表、招商等场景,通过API接口调用通义大模型,并尝试基于SaaS的AI应用,以及阿里云“百炼”平台,使得全员对AI如何在零售场景落地有了更加深刻的理解。

  谈到在技术路线上或落地部署上如何利用大模型解决实际问题时,武汉莱博科技联合创始人、AI负责人安升强表示:“我们所有的业务都是基于一个庞大的数据库,然而问题是我们无法与数据库直接交互。为了解决这一问题,一方面,我们借助大模型能力,为企业业务赋能,另一方面,我们将数据注入到大模型中,同时将大模型的一些弱项用小模型进行弥补,然后将整个链路串联起来,最终将数据价值直接传递到客户手中。”

  除此之外,之前阿里云通义千问大模型还发布了在汽车、航空、天文、矿业等领域的落地案例。这表明,进入2024年以来,阿里云大模型加快了行业落地的步伐。其中,自然离不开在基础设施、应用开发平台和开源社区等方面的积累和沉淀。

  这种积累和沉淀增强了阿里云从聚焦大模型技术能力到走向大模型行业落地的能力和底气。刘伟光表示,不管是开源模型还是商业化模型,未来,公共云+API将成为企业使用大模型的主流方式。其中,阿里云不仅可以从模型自身和AI基础设施两个层面不断优化,追求极致的推理成本和性能,还可以为每个企业提供专属VPC环境,做到计算隔离、存储隔离、网络隔离、数据加密,充分保障数据安全。同时,依托“百炼”平台上的上百款国内外优质模型,以及模型定制与应用开发工具链,可以助力开发者便捷地测试和开发专属大模型。

  加速行业落地还需增强基座能力

  陈迪表示,经过AI创业大赛,发现AI大模型在商业化落地方面还处于初期,目前更多的是偏向泛娱乐化领域,在零售业务流程上可能还需要进一步沉淀。“当前,AI发展已经到了一个临界点,尽管它已经很强大,但在很多垂直领域还有所欠缺。只有具备了更加强大的模型基座能力,才能更贴近真实的业务场景,更好地满足业务需求,从而真正释放出业务价值。”安升强如此说道。

  大模型技术,以其庞大的参数规模、强大的泛化能力以及对多模态数据的支持,已经在多个领域展现出类似人类的通用智能能力。这些技术的核心突破在于能够学习多个领域的知识,处理多种数据和任务。不过,受技术成熟度、行业特定需求、数据安全、成本问题、集成难度等因素的影响,大模型行业落地仍然处于早期。

  为了加速大模型在行业中的应用,需要解决算力资源供给、高质量数据资源、以及大模型训练和应用生态的构建等关键问题。通过加强基础设施建设,特别是智能算力资源,以及优化数据质量和模型训练方法,可以有效地推动大模型在行业中的落地应用。

  对于阿里云来讲,要想成为“AI时代最开放的云”,不仅要着力构建AI时代关键的计算基础设施,并以模 型为中心来加速创新,还要构建一个繁荣且开放的生态系统。


(本文不涉密)
责任编辑:路沙

站点信息

  • 运营主体:中国信息化周报
  • 商务合作:赵瑞华 010-88559646
  • 微信公众号:扫描二维码,关注我们