产品中心
击穿全网底价通义千问GPT-4级大模型直降97%1块钱能买200万tokens
来源:bob最新官网下载    发布时间:2024-07-08 21:50:32
产品介绍

  其中,性能对标GPT-4的主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,也就是1块钱能买200万tokens,相当于5本《新华字典》的文字量,堪称全球大模型的性价比之王。

  超大杯新品,此番也在降价名单中:刚发布不久的通义千问超大杯Qwen-max,API输入价格也直降67%,低至0.02元/千tokens。

  这波操作,再次击穿全网最低价,能够说是专属大模型企业、程序员的618狂欢了。

  与OpenAI的GPT系列相比,降价后的通义千问系列,大多数都是1折购,性价比拉满。

  以降幅最大的Qwen-Long为例,价格仅为GPT-4的1/400,性能指标上却并不逊色。

  尤其在长文本方面,Qwen-Long支持最长1000万tokens的超长上下文对线万页的文档。配合同步上线的文档服务,还可支持word、pdf、Markdown、epub、mobi等多种文档格式的解析和对话。

  值得关注的是,不同于国内大部分厂商输入输出价格相同的定价方式,这次Qwen-Long的输入价格比输出价格降幅更大。

  现在,用户结合长文本(论文、文档等)对大模型提问慢慢的变成了最常见的需求之一,所以模型输入调用量往往大于输出调用量。

  根据统计,真实的模型输入调用量一般是输出的8倍左右。我们把用户使用量最大的输入token价格大大降下去,对企业来说更划算,能更好地做到普惠。

  就在今年的2月29日,阿里云刚刚整过一个云产品“疯狂星期四”的大活儿:全线%。

  如此大手笔,底气来源是阿里云作为国内第一大公有云厂商,在长期技术积累和规模效应下,已经构建起完备的AI基础设施和Infra技术优势。

  而此番诚意满满的降价,背后更是显露出大模型应用时代,这种技术红利正在成为公有云厂商的“杀手锏”之一。

  在AI基础设施层面,从芯片层到平台层,阿里云已经基于自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建起了高弹性的AI算力调度系统。

  举个例子,PAI支持10万卡量级的集群可扩展规模,超大规模训练线%。在大模型训练任务中,达到同样效果可节省超50%算力资源,性能达到全球领先水平。

  其一,高性能优化。包括系统级的推理优化技术,以及高性能算子、高效推理框架、编译优化的能力。

  其二,自适应调优。随着AI应用的多样化,一个单一的模型很难在所有场景中都保持最佳效能,自适应推理技术允许模型根据输入数据的特性和计算环境的约束,动态调整推理技术应用和计算资源选型。

  其三,可扩展部署。模型推理部署资源的扩展和弹性,能解决推理服务在一定时期内的潮汐现象。

  此前,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光也表示,公有云的技术红利和规模效应,会带来非常大的成本和性能优势。

  尤其对于中小企业、创业团队而言,公有云+API一直以来被视作做大模型应用的性价比之选:

  尽管开源模型发展势头迅猛,以Llama 3为代表的最强模型们更被认为已经有媲美GPT-4的表现,但私有化部署仍然面临着成本高昂的问题。

  以使用Qwen-72B开源模型、每月1亿token用量为例,在阿里云百炼上直接调用API,每月仅需600元,私有化部署成本则平均每月超10000元。

  除此之外,公有云+API模式还便于多模型调用,能提供企业级的数据安全保障。以阿里云为例,阿里云可以为公司可以提供专属VPC环境,做到计算隔离、存储隔离、网络隔离、数据加密。目前,阿里云已主导、深度参与10多项大模型安全相关国际国内技术标准的制定。

  云厂商的开放性,还能为开发者提供更丰富的模型和工具链选择。比如,阿里云百炼平台在通义千问之外,还支持Llama系列、百川、ChatGLM等上百款国内外大模型,同时提供大模型应用一站式开发环境,能做到5分钟开发一款大模型应用、5到10行代码即可搭建企业级RAG应用。

  量子位智库在《中国AIGC应用全景报告》中提到,AIGC应用产品中,基于自建垂直大模型和API接入的产品占到将近7成。

  这一数据同样从侧面佐证了“公有云+API”模式的市场潜力:在应用市场,对业务的理解和数据积累才是破局关键,在公有云+API的基础上做应用,在成本和启动速度方面都是更现实的选择。

  实际上,无论是直观的价格之争,还是更深层次的AI基础设施之卷,反映出的都是,当大模型发展焦点逐步从基础模型迈向落地应用,平台厂商怎么来降低大模型的使用门槛,慢慢的变成了竞争的关键所在。

  作为中国第一大云计算公司,阿里云这次将主流大模型API输入价格降低97%,就希望加速AI应用的爆发。

  总结起来就是,一方面,对于平台厂商而言,“价格战”背后其实是基础设施、技术能力之争;另一方面,对于整个大模型行业而言,应用是否能持续爆发、进一步普及,入局门槛、经营成本已成关键因素。

  如此看来,近来卷起的降价趋势,对于开发者和期待更多大模型应用的胖友们而言,不可谓不是利好消息。

Copyright © 2018-2019 bob最新官网下载