就在今天,OpenAI 新發佈了 O1 系列模型。這個模型是一個全新的系列,主打增強理解能力。模型會在回答問題之前進行內部多步驟思考,最終給出答案,非常適合科學研究,代碼編寫等需要複雜理解的應用場景。 ——當然了代價就是模型的回復速度很慢,而且由於需要在內部進行多輪的思考,所以也不能支援 streaming。另外,思考時消耗的 token 也是算在用戶頭上的。所以顯然,模型的價格是很貴的。 現在起,你也可以在落格智聊體驗和使用 O1 模型了。我們現階段接入了兩個 O1 模型,它們分別是 [crayon-67b970dbe3a08497878198-i/] 和 [crayon-67b970dbe3a17759700663-i/] 定價 O1 Preview 輸入 0.3, 輸出 0.8 O1 Mini 輸入 0.06,輸出 0.25 限制 目前由於還是內測階段,OpenAI 給的流量很小,每個帳號每分鐘只能有 20 個請求,所以還請各位省著點用,將來容量放開後我們也會相應地進一步降低價格。 API 現在你可以使用 [crayon-67b970dbe3a1a420670872-i/] 和 [crayon-67b970dbe3a1d991223248-i/] 作為模型名稱來使用 落格智聊的 API 使用這兩個模型了。但需要注意的是: 模型不支援 [crayon-67b970dbe3a20295936352-i/] 功能,開啟會返回錯誤; 模型不支援 [crayon-67b970dbe3a23144167473-i/] 功能,相關參數會被丟棄; 其他模型不支援的功能,相關參數都會被丟棄; […]
新聞
現在你可以在落格智聊用戶端(www.chatai.lol)使用谷歌的 Gemini 1.5 了...... 儘管我們之前其實就已經支援了該模型,但由於一些技術限制,模型回應並不是很穩定,現在,我們解決了技術難題,Gemini 模型變得可用了! 谷歌的 Gemini 模型雖然智力上比 GPT-4o 要差一些,但勝在價格便宜,且上下文窗口高達百萬級 token! 定價 我們對現有的 Gemini 1.5 flash 定價進行了一定的調整(降價! ),輸入從 0.05 降低至 0.003, 輸出從 0.08 降低至0.009! 現在我們也加入了 Gemini 1.5 pro 的支援,輸入 0.005, 輸出 0.015. API 遺憾的是,目前我們的 API 依舊只能支援 OpenAI 和 Anthropic 模型,並不能支援谷歌的模型,而且,返回格式統一都是 OpenAI 格式。
落格智聊現已支持視覺模型! 支援的模型包括 Claude 3 Haiku,Claude 3 Sonnet, Claude 3 Opus 以及 GPT-4o (其中對於 GPT-4o 還支持設定圖片清晰度等級高或者低。) 各個平臺用戶端均已發佈,更新 0.6.3 版本即可。 使用限制 由於模型對圖片有處理能力限制,在每次對話發送時,落格智聊用戶端方面最大支持發送5張圖片,每個圖片大小不得超過 3.5MB,如果用戶選擇的圖片大於 3.5MB,則會彈窗供用戶選擇是壓縮還是放棄。(但請注意,不同模型一次處理圖片數量不盡相同,具體要根據模型設定使用。) 落格智聊 API 同樣地,落格智聊 API 也已經支持圖片視覺,使用 API 的使用者可使用 [crayon-67b970dbe893a277608339-i/] [crayon-67b970dbe8944785896789-i/] [crayon-67b970dbe8947688645751-i/] [crayon-67b970dbe894a514300134-i/] [crayon-67b970dbe894c101428141-i/] 作為模型名稱使用圖片功能,請求各式統一為 OpenAI 格式。 對於 GPT-4o,落格智聊 API 並不支援 [crayon-67b970dbe894f432183838-i/] 為 [crayon-67b970dbe8951238150288-i/] 的模式,如果該欄位沒有設置或設置為 [crayon-67b970dbe8954079857808-i/] ,則預設為 [crayon-67b970dbe8957508218576-i/] 。
就在昨天, Anthropic 發佈了 Claude 系列最新模型,雖然只有 3.5 版本的 Sonnet,但據官方測試,性能已經超越 3 系列的Opus。 現在起,您可以在落格智聊中選用該模型了。 關於 Claude 3.5 的另外兩個模型,官方會在今年晚些時候發佈。屆時我們會第一時間同步接入。 API 是的,落格智聊 API 也支援了該模型,您可使用 [crayon-67b970dbe8c10180418606-i/] 作為模型名稱來使用該模型,返回的結果依舊是 OpenAI 格式。 定價 該模型定價為輸入 0.15 點數/1k token, 輸出 0.3 點數/1k token。
OpenAI 近日發佈了全新的 GPT4 模型,GPT-4o (是字母o不是數位0) 該模型性能更高速度更快理解能力更強悍,更更重要的是,價格還更低(相對 GPT-4-Turbo) 現在起落格智聊用戶端和 API 均已支援 GPT-4o! 模型輸入:128k 模型輸出:4k 定價: 輸入:0.1點/ 1k token 輸出:0.2點/ 1k token 另: 落格智聊目前只支援文本交互,這包括了用戶端和 API,我們正在努力安排圖片支援......
Anthropic 的 Claude 模型現已推出第三代: 中杯 Haiku 大杯 Sonnet 超大杯 Opus 其中超大杯 Opus 可比肩 GPT 4, 在寫作方面尤其突出。模型的輸入長度可達 200k token,輸出則只有 4k。 現在起落格智聊支持選擇 Claude 3 系列模型。 定價: 中杯 Haiku 輸入:0.25點/1k token 輸出:0.85點/1k token 大杯 Sonnet 輸入:0.1點/1k token 輸出:0.25點/1k token 超大杯 Opus 輸入:0.005點/1k token 輸出:0.015點/1k token 同樣的,API 使用者也可以直接使用[crayon-67b970dbe8db3073875581-i/] , [crayon-67b970dbe8dba567095879-i/] 和 [crayon-67b970dbe8dbd212737635-i/] 作為模型名稱來調用 API,返回的結果將與 […]
就在幾天前,OpenAI 發佈了新的模型...... 們。落格智聊也在第一時間進行了配適,下面就讓我們一起來看看,落格智聊都做了哪些更新: 模型 GPT-3.5 現在起 GPT-3.5-Turbo 與 GPT-3.5 Turbo 16k 合併了,新的模型只有一個 GPT-3.5 Turbo,新模型是輸入輸出不對等模型,輸入最大支援 16k,輸出則最大支援 4k。 GPT-4 新推出了兩個模型:GPT-4 Turbo 和 GPT-4 Turbo with vision,顯然,相對於前者,後者支援了閱讀圖片的能力。 不過遺憾的是,這兩個模型都還是預覽版,尤其是帶有圖片閱讀能力的 GPT-4 模型,僅支援 100/天 的請求數量,真只能是開發者測試使用了(可能還不夠)。不過好在 GPT-4 Turbo 的請求量現在已經提升到了 10000 每天外加 500 每分鐘。 當然,GPT-4 Turbo 除了能閱讀圖片,還支援長達 128k 的輸入,但遺憾的是輸出相對於以前的 8k,縮水到了 4k。就目前而言,速度上似乎比 GPT-3.5 還要快上那麼一點,當然也可能是因為限制了使用者請求數量導致的。 價格 新模型再一次降價了! 落格智聊的模型價格也同比例下調,由於 GPT-3.5 16k 已經合併到 GPT-3.5,對於 […]
現在起,充值落格智聊開啟 618 團購促銷活動,一人成團,團購價超低折扣! 是時候為下半年的你屯一波點數了。 充值落格智聊,用全球最領先的 GPT4 為你的工作和生活增添助力,效率如虎添翼! 落格智聊點數團購價: 1500 點數 ← 618 元。,四折! 200 點數 ← 61 元。,三折! 50 點數 ← 18 元。,三六折! 18 點數 ← 6 元。,三三折! 這麼大的力度,良心話,一年真玩不起幾次。
就在今天! OpenAI 發佈了新一波的模型更新,現在起,落格智聊已支援新加入的 GPT-3.5-turbo-16k,該模型支援長達 16000 token 的記憶量,便宜的價格讓更多應用設想成為可能! 現在起,你就可以在落格智聊 API 使用 GPT-3.5-turbo-16k了,包括智聊平臺和 API 平臺。 另外,本次更新新增的 function call(函數調用) 功能,我們也支援了。API 介面現已完美配適,包括 stream 和非 stream 請求模式哦~ 對了,目前落格智聊支援的全系列模型都已經更新到了最新的 0613 版本,遺憾的是,落格智聊的 API 並不支援指定舊版模型,當你發送請求時,指定的版本號會被自動替換為最新版。 定價 同樣,OpenAI 對 GPT 3.5 系列模型進行了一波價格調整,我們也同步更新了:原本的 GPT-3.5 模型,由輸入輸出統一 0.02 點每 1000 token 降價75折 0.015 點,輸出保持不變還是 0.02 點;對於新加入的 16k 版本的 GPT 3.5 模型,輸入為 […]
現在落格智聊支援第二種聯網模式了,在此之前,落格智聊支援在每個會話的第一個問題上進行聯網搜索(谷歌搜索),以使一些回答更加準確,這大大降低了模型出現幻覺(編造)的情景。 現在,落格智聊可以直接閱讀你傳入的頁面,從而允許你針對這個頁面的內容進行提問、分析、總結、翻譯等等。網頁連結是用正則表達式進行匹配提取的,所以各位在傳入時,最好用空格將連結與正文內容分開,避免提取失敗。 另外,落格智聊支援多條連結閱讀,這裡提取的數量不設上限,但為了你的點數和模型最大處理長度考慮,一個會話中還是不要提交過多的好。 讀取網頁會額外消耗點數嗎? – 不會,但網頁內容本身是肯定要消耗點數的。 這個功能也僅限每個話題的第一個問題嗎? – 不是,這個功能不設限,但同一個話題讀很多網頁的話會很快把歷史填滿,從而導致價格升高,請合理利用該功能。 當然,這個功能也擁有一些限制,這裡需要明確一下,各位使用者在使用該功能時也請注意: 由於模型處理內容長度限制(GPT 3.5)和價格問題(GPT 4),內容閱讀被粗略限制到 800 字(英文單詞)也就是大概 1000 token 左右,如果內容過長,後邊的內容會被裁切,並不會用 GPT 模型進行縮減,這同樣也是出於價格和效率考慮; 由於是伺服器請求網頁內容,需要登錄、授權等操作的頁面是無法閱讀的——即使你給出了賬號和密碼(強烈建議不要這麼嘗試),必須是可以公開匿名訪問的網頁才能被落格智聊讀取; 由於 HTML 本身存在很多不可見內容用於功能、風格等等,這些人眼不可見的文本都會被清洗,以確保儘可能節省 token (即在 800 字空間裡盡可能放置有意義的正文內容),我們目前僅獲取 [crayon-67b970dbe8fe0662982136-i/] 和 [crayon-67b970dbe8fe8449757781-i/] 裡的文本內容,外鏈也會被去掉。 最後,希望落格智聊能夠幫到你,祝工作順利! 落格工作室 chat-ai.logcg.com www.chatai.beauty www.chatai.lol