【历史最低】阿里云2核2G3M,99元/年
    115

    字节、阿里云、百度宣布降价! 大模型行业激战正酣

    2024.05.27 | 编辑:小惠 | 115次围观

      5月,大模型行业再次硝烟四起。为了争夺市场占有率,科技巨头们纷纷宣布大幅降价,打响大模型圈“价格战”,字节、阿里云、百度相继加入战局。

      5月15日,字节跳动在火山引擎原动力大会上,正式发布了名为“豆包”的自研大模型。同时,豆包大模型的定价给行业带来巨大的震动。豆包主力模型(小于等于32K)在企业市场的定价为0.0008元/千tokens,号称比行业价格便宜99.3%。128k的豆包通用模型定价为0.005元/千tokens,号称比行业价格低95.8%。大模型从“以分计价”进入到“以厘计价”阶段。

      所谓token,是大模型中可以理解和生成的最小意义的单位,它可以对应一个词、一个数字或一个标点符号等。

      字节跳动成为“掀桌的人”,打得正酣的大模型“价格战”,在同一天又迎来了两个重量级选手——阿里云和百度。

      5月21日,阿里云抛出重磅炸弹,宣布对通义千问9款商业化和开源模型的价格进行大幅降价。其中,GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,降幅达到惊人的97%;输出价格也直降90%至0.002元/千tokens。这款模型最高支持1千万tokens长文本输入,降价后约为GPT-4价格的1/400,“击穿全球底价”。

      同一天加入战局,阿里云更早,百度更“狠”。百度宣布文心大模型两大主力模型ERNIE Speed(上下文长度8K、128K)和ERNIE Lite(上下文长度8K、128K)全面免费,立刻生效,并在公告下方贴出大模型的链接。值得一提的是,此前字节跳动宣布降价后,百度曾对外表示“使用大模型不应该只看价格,更要看综合效果。”如今,友商纷纷大幅降价,百度也只好应战。

      业界普遍认为,随着大模型性能逐渐提升,AI应用创新正进入密集探索期,但推理成本过高依然是制约大模型规模化应用的关键因素。大模型厂商“价格战”开打,有助于应用创新公司在开发商业化大模型应用时,花费更低的大模型调用成本。

      资金雄厚的巨头们通过降价降低大模型的使用门槛,有望吸引更多更广泛的企业客户,占领更大的市场份额。但是“价格战”的另一面是,大模型行业一些技术型的初创公司会面临被挤压甚至被淘汰的处境。

      对于大模型近期集中大幅降价的情况,零一万物创始人兼CEO李开复坚持认为,价格战是一个“双输”的打法,“当一个团队认定自己的技术值得的时候,就会坚持一个合适的价格,而绝不会靠贴钱、赔钱去做生意。”


    发表评论