OpenAI推Flex模式:半价用AI,但响应变慢资源难保

   发布时间:2025-04-18 10:06 作者:唐云泽

近日,全球领先的AI研究机构OpenAI宣布了一项新的API服务——“Flex处理模式”,旨在为用户在与谷歌等生成式AI巨头的竞争中提供更具成本效益的解决方案。据TechCrunch报道,Flex处理模式通过牺牲一定的响应速度和偶尔的资源分配问题,换取了模型使用价格的显著降低。

OpenAI透露,Flex处理模式目前正对新发布的o3和o4-mini推理模型进行开放测试。这些测试主要面向一些优先级较低的“非生产”任务,如模型评估、数据扩充和异步处理等。这一新服务的推出,无疑为那些希望在不影响核心业务的前提下,探索AI潜能的用户提供了更多选择。

具体而言,采用Flex处理模式的用户将享受到API费用直接减半的优惠。以o3模型为例,在Flex模式下,每百万输入tokens的费用从原来的10美元降至5美元(按当前汇率约合36.5元人民币,相当于约75万字),每百万输出tokens的费用则从40美元降至20美元(约合146元人民币)。而对于更轻量级的o4-mini模型,Flex模式下的费用更是从每百万输入tokens的1.10美元和每百万输出tokens的4.40美元,分别降至0.55美元(约合4元人民币)和2.20美元(约合16.1元人民币)。

OpenAI还通知客户,为了进一步优化服务,公司将实施新的身份验证流程。根据用户的消费层级,第1至第3层的开发者在完成新上线的身份验证流程后,才能获得o3模型的访问权限。同时,o3及其他模型的推理摘要功能和流式API服务也需要在完成身份验证后才能启用。这一举措旨在防止用户违反公司制定的使用政策,确保服务的合规性和稳定性。

OpenAI表示,Flex处理模式的推出,是公司持续加大在生成式AI领域投入的一部分。通过提供更加灵活和经济的解决方案,OpenAI希望能够帮助更多用户探索AI的无限可能,推动AI技术的普及和发展。

值得注意的是,尽管Flex处理模式在响应速度和资源分配上可能存在一定的不确定性,但对于那些对价格敏感且能够容忍一定延迟的用户来说,这无疑是一个极具吸引力的选择。通过降低使用成本,Flex处理模式有望吸引更多用户尝试和使用OpenAI的先进AI模型,进一步推动AI技术的创新和应用。

随着生成式AI技术的不断发展,OpenAI与谷歌等竞争对手之间的较量也日益激烈。Flex处理模式的推出,不仅展示了OpenAI在技术创新和服务优化方面的实力,也为其在激烈的市场竞争中赢得了更多优势。未来,OpenAI将继续致力于推动AI技术的突破和应用,为用户创造更多价值。

同时,OpenAI也提醒用户,在使用Flex处理模式时,应充分了解其特点和限制,并根据自身需求合理选择使用方式。通过合理规划和管理资源,用户可以在保证业务稳定的前提下,充分利用AI技术的优势,提升工作效率和创新能力。

 
 
更多>同类内容
全站最新
热门内容
本栏最新