GPT-4 已经安排上了!
就在 3 天前, OpenAI 发布了更聪明更强大(也更贵)的 GPT-4 模型,落格智聊在第一时间申请了 API 权限。今天早上收到邮件后,落格智聊第一时间对该模型进行了支持。
现在起,你可以在落格智聊上使用 GPT-4 模型了,默认即最新模型。——当然,考虑到 GPT-4 模型价格更贵,且相对较慢,我们提供了一个模型选择的选项,如果需要,你也可以将模型切换会价格更低,速度更快的 GPT-3.5-turbo. 这个设定现在已经支持云端同步,一次设定,Telegram Bot 也会生效。
限制
由于这是第一个 GPT-4 模型,就目前测试结果来看,它还有一些比较明显的限制:
- 该模型坚信自己是 GPT-3.5-turbo 而不是 GPT-4,但你可以从消耗的点数金额判断使用的是 3.5 还是 4;
- 模型速度较慢,但其实也还能接受,相近不久的将来 OpenAI 会将速度优化提升;
- 模型 API 处理容量较小,目前 GPT-4 的请求限制为 200 每分钟,比起 3.5 的 3500 来说,小了很多。如果你持续遇到错误,请暂时切换到 GPT-3.5 使用;
- 目前我们只有 GPT-4 的 API,并没有 GPT-4-32k 的 API,将来拿到后也会第一时间支持;
- 尽管 GPT-4 模型是支持图片识别的,但目前似乎我们并没能找到图片相关的文档,所以暂时无法进行支持。
定价
由于 GPT-4 对输入和输出的定价进行了区分,这里我们也进行了区分定价,输入,也就是 Prompt,包括聊天的所有历史信息在内,会消耗 0.3 每 1000 token;输出,也就是模型给出的内容,会消耗 0.6 每 1000 token。
将来如果 OpenAI 调整了价格,我们也会进行响应的调整,请知悉。
另,如果你切换为 GPT-3.5 ,那么点数消耗会按照原本 GPT-3.5 的定价收取。