就在今天,OpenAI 新发布了 O1 系列模型。这个模型是一个全新的系列,主打增强理解能力。模型会在回答问题之前进行内部多步骤思考,最终给出答案,非常适合科学研究,代码编写等需要复杂理解的应用场景。
——当然了代价就是模型的回复速度很慢,而且由于需要在内部进行多轮的思考,所以也不能支持 streaming。另外,思考时消耗的 token 也是算在用户头上的。所以显然,模型的价格是很贵的。
现在起,你也可以在落格智聊体验和使用 O1 模型了。我们现阶段接入了两个 O1 模型,它们分别是 o1-preview 和 o1-mini
定价
O1 Preview
输入 0.3, 输出 0.8
O1 Mini
输入 0.06,输出 0.25
限制
目前由于还是内测阶段,OpenAI 给的流量很小,每个账号每分钟只能有 20 个请求,所以还请各位省着点用,将来容量放开后我们也会相应地进一步降低价格。
API
现在你可以使用 o1-preview 和 o1-mini 作为模型名称来使用 落格智聊 的 API 使用这两个模型了。但需要注意的是:
- 模型不支持 streaming 功能,开启会返回错误;
- 模型不支持 function 功能,相关参数会被丢弃;
- 其他模型不支持的功能,相关参数都会被丢弃;
- 请传入 max-tokens 作为 max_completion_tokens 的替代,由于一些限制,直接传入 max_completion_tokens 会被返回错误活被丢弃。