首页 > 资讯
阿里云通义千问主力模型价格直降97%,大模型商业化拐点已至
21世纪经济报道2024-05-22

  5月21日,阿里云抛出重磅炸弹:通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400。

  此次降价深入AI领域。业界普遍认为,随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。云厂商的降价策略,不仅是对当前市场的一次重大推动,更是对未来商业智能化转型的一次深远布局。

  阿里云智能集团资深副总裁、公共云事业部总裁刘伟光表示:“作为中国头部的云计算公司,阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计未来大模型API的调用量会有成千上万倍的增长。”

  降价来到大模型

  在阿里巴巴集团CEO、阿里云董事长兼CEO吴泳铭确定阿里云“AI驱动、公共云优先”的战略后,阿里云的降价力度更大,仅2024年开局,已经有过三次降价。

  2月29日,阿里云宣布中国区全线降价,100多款、500多种规格的产品直降20%,最高降幅55%;3月31日,8款阿里云热销云产品登上罗永浩直播间,直播间主打两款基础云服售价低于1折;4月8日,阿里云宣布海外市场全线降价,平均降幅为23%,最高降幅为59%。

  本次,阿里云终于将降价带向了备受关注的大模型。据悉,通义千问本次降价共覆盖9款商业化及开源系列模型,涵盖Qwen-Long、Qwen-Max、Qwen1.5-72B等。

  其中,Qwen-Long是通义千问的长文本增强版模型,性能对标GPT-4,上下文长度最高达1千万,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到97%。除了输入价格降至0.0005元/千tokens,Qwen-Long输出价格也直降90%至0.002元/千tokens。

  相比之下,目前国内外厂商GPT-4、Gemini1.5 Pro、Claude 3 Sonnet及Ernie-4.0每千tokens输入价格分别为0.22元、0.025元、0.022元及0.12元,均远高于Qwen-long。

  至于Qwen-Long的输入价格比输出降得更多的原因,刘伟光表示,是因为用户在提问时经常结合长文本,导致模型的输入调用频率通常高于输出调用频率。统计数据显示,模型的输入调用频率大约是输出的8倍。

  他表示,通过大幅降低用户使用量最大的输入token的价格,对企业而言更具成本效益,有助于实现更广泛的普及。此外,将输入价格降低,也是为了鼓励大家充分利用长文本。

  而刚刚发布的旗舰款大模型Qwen-Max,其API输入价格降至0.04元/千tokens,降幅67%。它是目前业界表现最好的中文大模型之一,在权威基准OpenCompass上性能追平GPT-4-Turbo,并在大模型竞技场Chatbot Arena中跻身全球前15。

  此次降价的力度如此之大,刘伟光表示,这得益于公共云的技术红利和规模效应,带来的巨大成本和性能优势。阿里云从模型和AI基础设施两个层面不断优化,追求极致的推理成本和性能。例如,阿里云基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建了极致弹性的AI算力调度系统,结合百炼分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。

  大模型爆发前夜

  业内人士认为,近期海内外模型厂商不约而同调低价格,不仅仅是一种市场策略,更是大模型应用时代到来的一个明显信号。降价背后,公有云厂商正利用大模型技术带来的红利,作为其在市场上竞争的有力武器,且推动整个行业向更智能化、更高效的方向发展。这种策略,无疑将成为公有云厂商在激烈市场竞争中的重要优势之一。

  刘伟光表示,2004年中国的大模型在起步阶段,所有公司加起来的日调用量可能不超过1亿次API调用。然而,根据目前的发展情况和客户增长数据,到2024年年底,整个API市场的日调用量将达到100亿次,未来可能还会有成千上百倍的增长。

  这种增长的信心来自于几个方面:移动支付和短视频等垂直领域的发展已经证明了大模型在语音、图像和文本等方面的能力,这些能力正在渗透到社会的每个角落。其次,技术能力的不断提升和推理成本的不断下降,以及市场应用的爆发式增长趋势,都是推动这一增长的重要因素。

  刘伟光认为,不管是开源模型还是商业化模型,公共云+API将成为企业使用大模型的主流方式。

  一是公共云的技术红利和规模效应,带来巨大的成本和性能优势。即便是同样的开源模型,在公共云上的调用价格也远远低于私有化部署。一般情况下,自建集群需要考虑的成本有集群硬件采购、软件部署、网络费用、电费,及硬件折旧、人力成本等,如果出现计算资源闲置或超载等情况,还需要付出额外成本;而在云上调用大模型API真正实现了随用随取,按需使用。以使用Qwen-72B开源模型、每月1亿tokens用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超1万元。

  二是云上更方便进行多模型调用,并提供企业级的数据安全保障。阿里云可以为每个企业提供专属VPC环境,做到计算隔离、存储隔离、网络隔离、数据加密,充分保障数据安全。目前,阿里云已主导或深度参与10多项大模型安全相关国际国内技术标准的制定。

  三是云厂商天然的开放性,能为开发者提供更丰富的模型和工具链。阿里云百炼平台上汇聚通义、百川、ChatGLM、Llama系列等上百款国内外优质模型,内置大模型定制与应用开发工具链,开发者可以便捷地测试比较不同模型,开发专属大模型,并轻松搭建RAG等应用。从选模型、调模型、搭应用到对外服务,一站式搞定。

  在业内人士看来,以阿里云为代表的云厂商通过降价策略,降低了企业使用大模型的成本,也加速了大模型技术的普及和商业化进程。更多的企业将享受到大模型带来的智能化服务和决策支持,以实现更高效的运营模式和更强大的竞争力。

  “今天看到全国的市场各种类型的客户不断拥抱大模型,相信在成千上百倍增加的背后,一定会大幅度再次稀释成本,从而不断地推动价格的下降,实现AI应用的爆发。”刘伟光表示。

阅读:
分享
用微信扫描二维码分享
请点击右上角分享给微信朋友或朋友圈