就在今天!OpenAI 发布了新一波的模型更新,现在起,落格智聊已支持新加入的 GPT-3.5-turbo-16k,该模型支持长达 16000 token 的记忆量,便宜的价格让更多应用设想成为可能!
现在起,你就可以在落格智聊 API 使用 GPT-3.5-turbo-16k了,包括智聊平台和 API 平台。
另外,本次更新新增的 function call(函数调用) 功能,我们也支持了。API 接口现已完美配适,包括 stream 和非 stream 请求模式哦~
对了,目前落格智聊支持的全系列模型都已经更新到了最新的 0613 版本,遗憾的是,落格智聊的 API 并不支持指定旧版模型,当你发送请求时,指定的版本号会被自动替换为最新版。
定价
同样,OpenAI 对 GPT 3.5 系列模型进行了一波价格调整,我们也同步更新了:原本的 GPT-3.5 模型,由输入输出统一 0.02 点每 1000 token 降价75折 0.015 点,输出保持不变还是 0.02 点;对于新加入的 16k 版本的 GPT 3.5 模型,输入为 0.03 点,输出为 0.04 点(每 1000 token 的价格)。
还有,embedding API 的价格也下降了,现在起输入和输出由原本的 0.004 点降价25折 0.001 点 每 1000 token。
智聊平台
最后,落格智聊各个客户端均已发布更新,本次更新大幅提升了 App 稳定性和执行效率,推荐所有用户更新。