落格智聊 現已升級至 GPT-4

GPT-4 已經安排上了!

落格智聊現已支援 GPT-4 模型
落格智聊現已支援 GPT-4 模型

就在 3 天前, OpenAI 發佈了更聰明更強大(也更貴)的 GPT-4 模型,落格智聊在第一時間申請了 API 許可權。今天早上收到郵件後,落格智聊第一時間對該模型進行了支援。

現在起,你可以在落格智聊上使用 GPT-4 模型了,默認即最新模型。——當然,考慮到 GPT-4 模型價格更貴,且相對較慢,我們提供了一個模型選擇的選項,如果需要,你也可以將模型切換會價格更低,速度更快的 GPT-3.5-turbo. 這個設定現在已經支援雲端同步,一次設定,Telegram Bot 也會生效。

 

限制

由於這是第一個 GPT-4 模型,就目前測試結果來看,它還有一些比較明顯的限制:

  1. 該模型堅信自己是 GPT-3.5-turbo 而不是 GPT-4,但你可以從消耗的點數金額判斷使用的是 3.5 還是 4;
  2. 模型速度較慢,但其實也還能接受,相近不久的將來 OpenAI 會將速度優化提升;
  3. 模型 API 處理容量較小,目前 GPT-4 的請求限制為 200 每分鐘,比起 3.5 的 3500 來說,小了很多。如果你持續遇到錯誤,請暫時切換到 GPT-3.5 使用;
  4. 目前我們只有 GPT-4 的 API,並沒有 GPT-4-32k 的 API,將來拿到後也會第一時間支援;
  5. 儘管 GPT-4 模型是支援圖片識別的,但目前似乎我們並沒能找到圖片相關的文檔,所以暫時無法進行支援。

定價

由於 GPT-4 對輸入和輸出的定價進行了區分,這裏我們也進行了區分定價,輸入,也就是 Prompt,包括聊天的所有歷史資訊在內,會消耗 0.3 每 1000 token;輸出,也就是模型給出的內容,會消耗 0.6 每 1000 token。

將來如果 OpenAI 調整了價格,我們也會進行回應的調整,請知悉。

另,如果你切換為 GPT-3.5 ,那麼點數消耗會按照原本 GPT-3.5 的定價收取。