• |
  • |
  • |
  • |
?20240526/kceei.rar

有关"小狐狸钱包退出账户在哪找"网页版/手机app介绍公告 hd 12.45-凯发旗舰厅

2024-05-26 01:27:42 来源: 新华社
字号:默认 超大 | 打印 |

文|光子星球 郝鑫。

编辑|吴先之。

6.18卷价格的风吹到了大模型圈。

5月15日,火山发动机率先亮剑,宣布企业市场豆包主模定价0.008元/千元 tokens,比行业便宜99.3%。其精准狙击同行的做法直接引发了大型厂商低价肉搏战。

阿里、百度、科大讯飞、腾讯纷纷站出来应战。

5月21日,阿里云官宣通义千问主模qwen-long输入价格降至0.005元/千 tokens,直降97%;仅仅几个小时后,百度智能云就牺牲了必杀技,宣布文心大模型erniee两大主模型 speed、ernie lite完全免费。

自百度以来,大模型完全与免费挂钩。

5月22日,科大讯飞宣布讯飞星火lite。 永久免费开放api。下午,腾讯云发布了全新的大型模型升级方案,混元-lite模型是主要模型之一,全面免费调整。

仅仅一周,大模型就从“c”时代进入了“免费”时代。

表面是降价,背后的基本驱动力来自技术。经过一年多的技术追赶,国内大型模型厂商在计算能力、推理、算法等方面取得了突破,从而降低了技术成本。再加上大型工厂云计算带来的大规模优势,才共同引发了降价浪潮。

另一方面,它也证实了大型模型已经从新闻发布会demo进入了一个新的可用阶段。在谈到豆包大模型的发布和降价时间点时,火山引擎总裁谭待提到了一个标准:“模型能力准备好了”。目前,各大模型制造商大规模开放使用的前提是模型能力通过测试,供应稳定。

经过仔细研究,大型制造商的低价和免费更像是引诱老鼠出洞的奶酪。

这种免费产品有很多限制。阿里巴巴和百度降价最高的产品是其轻量化模型版本,仅适用于中小企业和开发商短期使用频率低、推理量小、任务处理量不复杂的短期使用。

在这种情况下,低成本、免费的“互联网”手段已经成为大型模型制造商的客户获取策略。在获取更多数据优化模型效果的同时,他们试图通过品尝新鲜度转变为更高层次的付费版本。

买得好不如卖得好。大模型厂商集体降价背后还有一系列问题值得探讨。

从用户的角度来看,大型降价的潜在受益者可能有两种:开发者和企业。

虽然这是该行业第一次大规模降价,但早在去年,主要工厂就通过赢得黑客松比赛来吸引人工智能企业家和团队的参与。

当时有黑客松常客告诉光子星球,“参加比赛就是薅羊毛,token不拿白不拿”。

薅羊毛确实可以降低创业成本。降低价格对开发者来说是友好的,尤其是独立开发者。这可能意味着开发者可以运行更多的测试,获得更多的反馈数据,从而缩短产品在线周期,进一步提高创业成功的可能性。

但前提是满足开发商和企业的需要。光子星球了解到,降价的消息传出后,在开发者和企业中呈现出两极分化的声音。

一方同意国内大型降价,认为开发商和企业可以继续收集羊毛,毕竟,现在市场上的外壳应用案例不少;另一方认为大型模型制造商缺乏诚意,大幅降价是小型模型,虽然声称水平可以标准gpt-4,但实际上甚至gpt-3.5,模型水平不符合标准,不能在实际生产环境中运行。

大型制造商表面上的降价实际上背后隐藏着一个谜。这就像给你一张云磁盘限时体验卡。在观看了三秒钟的高清视频后,你弹出了升级vip的提醒。你刚刚体验了5秒钟的快速下载,提醒你升级会员权限。

大模型的味道也很好。以降价和免费噱头吸引开发商和企业使用。刚开始的时候,就开始卡调用速度、推理速度、任务处理量等关键指标。

此外,光子星球进一步发现,大型模型制造商的降价策略并没有对商业化产生重大影响。因此,大模型厂商的价格下降了,钱也没少赚。

一家大型工厂的内部人士告诉光子星球,目前大型模型的主要商业化方式是接受to b订单。与saas和云的合作模式类似,存在case by case和合作佣金有两种方式。

其中,case by case是一种更主流的合作方式,即大型制造商的现有客户将开始尝试制造商的大型模型,因为他们已经在使用制造商的云和saas产品。因此,为了留住客户,大型模型厂商也会在自己的saas和云产品上增加ai功能。

这可能会导致以下情况:大型模型已成为saas产品或项目合作的增值元素。大型模型本身不付费,但为了对冲成本,大型模型制造商必须反过来提高saas和项目合作的价格。羊毛最终出在羊身上,价格一涨一跌,大厂不但没亏反而赚了不错。

也许国内大模型价格战的影响在于,从现在开始,大模型正式等同于“免费”。

这将成为一个分水岭。在过去的两年里,许多企业家和团队试图建立的“在线收费”人工智能原始产品逻辑再次受到挑战。互联网的商业逻辑再次主导了大模型的发展。

在国内外,模型混合在行业中一直存在。本质上,每个大型模型都有自己的优势,如chatgpt和claude。基于不同模型的特点,用户将在不同的使用场景中获得相应的模型。

中国也发生了类似的情况,我们了解到金山办公室正在研发wps 在ai功能的过程中,minimax轮流尝试、智谱ai、通过了解各大模型的优势,建立自己的平台,如文心一言、商汤日新、通义千问等。

去年,一家国内数据管理公司告诉光子星球,他们还将在早期阶段运行大量的模型,测试不同模型的能力,并在不同的任务中选择最好的模型。这样既进行了成本测试,又避免了对单一产品的过度依赖。

到目前为止,大型产品经常受到用户粘性低的批评。与订阅费相比,按api收费的方式很难留住客户。

企业侧case by case收费模式也是如此。企业使用制造商的大型模型周期取决于订单周期。顾客跟着订单,今天用字节,明天也可以用阿里。

降价的本质是加快大模型的实施。大模型不仅要停留在写诗画画上,还要“下基层”。降价的背后是通过触及数千个行业,获得更大样本容量的合作案例,提取共同特征,形成合理高效的大型模型行业标准。

当大型模型制造商再次回到同一起跑线时,当每个模型的能力水平相似,价格相同时,他们将面临如何留住客户的共同主题。

从大模型客户的角度来看,他们希望通过对冲来减少对单一模型的依赖。在这种心理驱动下,未来的大模型模型可以参考saas和云产品的采购方式。一家公司可以在多家大型公司购买产品,不同的产品线和业务部门也可以使用不同的大型模型。

回顾历史,大模型一路从百模、参数、长文本到现在的价格。过去的经验告诉我们,价格不可能是唯一的决定因素。

即使不谈企业和开发商得到的东西是否正确,大型模型制造商给出的价格在市场上也不是很有竞争力。

开源大模型比国内大模型更划算。一名国内负责电子商务代理业务的工作人员告诉光子星球,到目前为止,他的业务部门已经购买了chatgpt、与人工智能相关的付费产品,如midjourney,现在底层使用开源和商用llama 3。

一些公司和开发者更倾向于部署开源模型的原因是,一方面,llama等外国开源模型的能力一直在赶上最强版本的chatgpt,一些通用场景能力足以在业务中使用。另一方面,从零开始部署和精调模型对后期业务调整也更加灵活。

此外,光子星球还发现,中间商的角色源自闭源大模型原厂和开源社区之间。一个令人费解的现象正在大型模型行业蔓延:大型模型经销商销售的api价格比原价便宜。

以国外deepbricks平台为例,最新上架的gpt-4o模型,openai官方输入价格为5美元/1m tokens,而deepbricks本身的价格只有2美元/1m tokens。如果这些中间商真的能实时更新模型能力,价格低廉,将来可能会吸引一批开发商和企业。

(图源:deepbricks凯发k8官网下载客户端官网)(图源:deepbricks凯发k8官网下载客户端官网)。

lepton ai 阿里巴巴创始人、前副总裁贾扬清认为,企业在使用人工智能时,并非成本驱动。不是因为api贵,而是因为企业首先要搞清楚如何产生业务价值,否则再便宜也是浪费。

如果简单的价格没有吸引力,客户使用哪个大模型将取决于什么?

一位中间件企业家告诉光子星球:“最重要的是看模型效果。如果模型效果太差,就不能使用。”。

此外,海外人工智能企业家直接告诉光子星球,由于能力强,国外使用chatgpt;国内文字,因为它可以满足合规的需要。

因此,价格只是企业选择大模型的因素之一。

同样,在云计算和saas时代,能留住客户的不是低价,而是更深层次的绑定关系或利益关系。例如,当企业使用火山引擎豆袋模型时,是否可以享受抖音投流的优惠权利;访问通识,其产品是否可以与阿里生态连接,获得更多的资源支持?

在选择大模型的同时,企业用户也在权衡制造商各自的优势。大模型能力的水平已经成为第二,更重要的是选择制造商能给其业务带来多少增长,以及在制造商的产业链下能获得多少收入。

最后还是要拿结果说话,正如贾扬清所说,“也许不是赢得商战最便宜的,而是赢得利润。”。

责任编辑:许平纬
扫一扫在手机打开当前页
"));
网站地图