就在今天! OpenAI 發佈了新一波的模型更新,現在起,落格智聊已支援新加入的 GPT-3.5-turbo-16k,該模型支援長達 16000 token 的記憶量,便宜的價格讓更多應用設想成為可能!
現在起,你就可以在落格智聊 API 使用 GPT-3.5-turbo-16k了,包括智聊平臺和 API 平臺。
另外,本次更新新增的 function call(函數調用) 功能,我們也支援了。API 介面現已完美配適,包括 stream 和非 stream 請求模式哦~
對了,目前落格智聊支援的全系列模型都已經更新到了最新的 0613 版本,遺憾的是,落格智聊的 API 並不支援指定舊版模型,當你發送請求時,指定的版本號會被自動替換為最新版。
定價
同樣,OpenAI 對 GPT 3.5 系列模型進行了一波價格調整,我們也同步更新了:原本的 GPT-3.5 模型,由輸入輸出統一 0.02 點每 1000 token 降價75折 0.015 點,輸出保持不變還是 0.02 點;對於新加入的 16k 版本的 GPT 3.5 模型,輸入為 0.03 點,輸出為 0.04 點(每 1000 token 的價格)。
還有,embedding API 的價格也下降了,現在起輸入和輸出由原本的 0.004 點降價25折 0.001 點 每 1000 token。
智聊平臺
最後,落格智聊各個用戶端均已發佈更新,本次更新大幅提升了 App 穩定性和執行效率,推薦所有使用者更新。