OpenAI 宣布 GPT-4 Turbo With Vision:目前我們所知的

Engage in the Latest Data forum for valuable lead-generation strategies
Post Reply
urrifat77
Posts: 34
Joined: Tue Dec 03, 2024 8:07 am

OpenAI 宣布 GPT-4 Turbo With Vision:目前我們所知的

Post by urrifat77 »

開發人員和使用者受益。

在單獨的文章中,您可以閱讀有關GPT 和 ChatGPT Store以及Assistants API 的更多信息,這些內容也在開發日上發布。

什麼是 GPT-4 Turbo?
GPT-4 Turbo 是現有GPT-4 大語言模 白俄羅斯電話號碼列表 型的更新。它帶來了一些改進,包括大大增加的上下文視窗和對更多最新知識的存取。 OpenAI 逐漸改進 ChatGPT 中 GPT-4 的功能,並加入了自訂指令、ChatGPT 插件、DALL-E 3 和進階資料分析。此最新更新帶來了許多令人興奮的新功能。

什麼是 GPT-4 Turbo With Vision?
具有視覺功能的 GPT-4 Turbo 是 GPT-4 Turbo 的變體,包含光學字元辨識 (OCR) 功能。也就是說,您可以向它提供圖像,它可以返回圖像中包含的任何文字。例如,您可以輸入選單的照片,它將返回該照片中寫入的食物選擇。同樣,您可以提供發票照片並自動提取供應商名稱和商品詳細資訊。

ChatGPT 預設提供「with Vision」功能,開發人員可以透過在 OpenAI API 中選擇「gpt-4-vision」模型來使用。

GPT-4 Turbo 主要特性
GPT-4 Turbo 與先前的型號相比有多項改進,增強了其功能。以下是使其脫穎而出的一些關鍵功能:

改進知識截止
Sam Altman 承諾確保 ChatGPT 保持最新狀態

Sam Altman 承諾確保 ChatGPT 保持最新狀態

GPT-3.5 和 GPT-4 的現有版本的知識截止日期為 2021 年 9 月。

GPT-4 將知識截止時間延長了 19 個月,至 2023 年 4 月。此外,OpenAI 的首席執行官 Sam Altman 承諾“[OpenAI] 將努力永遠不會讓 [GPT] 再次過時。”

128K 上下文視窗
大型語言模型 (LLM) 的上下文視窗是衡量其對話記憶持續時間的指標。如果模型的上下文視窗包含4,000 個令牌(約3,000 個單字),則聊天中超過4,000 個令牌之前的所有內容都會被忽略,並且回應可能會變得不太準確,甚至與先前的回應相矛盾。對於處理較長的文件或進行長時間對話的聊天機器人來說,這是一個問題。

GPT-4 的最大上下文長度為 32k (32,000) 個令牌。 GPT-4 Turbo 將其增加到 128k 令牌(約 240 頁,每頁 400 個字)。這超過了Anthropic 的 Claude 2 模型的 100k 最大上下文,並使其與Nous Research 的 YARN-MISTRAL-7b-128k 模型保持一致。

較長的上下文視窗是否會導致整個視窗的響應效能令人滿意,還有待觀察。史丹佛大學最近的研究表明,現有的長上下文模型只能在從文件開頭或結尾附近檢索資訊時提供準確的回應。

還值得注意的是,128k 似乎只是實現「無限上下文」夢想的墊腳石。微軟和西安交通大學的早期研究旨在將法學碩士擴展到十億個代幣的背景。

GPT 開始販售
OpenAI 響應了 LLM 市場日益激烈的競爭,並降低了 GPT-4 Turbo 的價格,以便對開發人員更經濟實惠。使用 OpenAI API 時,GPT-4 Turbo 輸入代幣價格現在是先前價格的三分之一,從每 1000 個代幣 3 美分降至 1 美分。產出的代幣現在是半價,從每 1000 個代幣 6 美分降至 3 美分。

GPT-3.5 Turbo 模型也延續了同樣的趨勢,以每1000 個代幣0.1 美分的價格提供了3 倍便宜的輸入代幣,以每1000 個代幣0.2 美分的價格提供了2 倍便宜的輸出代幣。

此外,微調的GPT-3.5 Turbo 4K 模型輸入代幣現在價格便宜4 倍,價格從每1000 個代幣1.2 美分降至0.3 美分,輸出代幣便宜2.7 倍,從每1.6 美分降至0.6 美分每 1000 個代幣為美分。培訓價格保持不變,為每 1000 個代幣 0.8 美分。

這些價格調整旨在使先進的人工智慧模型對開發者來說更具成本效益。

GPT 走向多模式:圖像提示與文字轉語音
「GPT-4 Turbo with Vision」宣布即將推出。您很快就可以透過直接在聊天框中輸入影像作為提示來提示 GPT-4 Turbo。然後,該工具將能夠產生標題或提供圖像所描繪內容的描述。它還將處理文字轉語音的請求。

Image

函數呼叫更新
函數呼叫是開發人員將生成式人工智慧融入其應用程式的功能。它使他們能夠向 GPT-4 Turbo 描述其應用程式的功能或外部 API。由於能夠在一條訊息中呼叫多個函數,此功能簡化了與模型的交互作用。例如,使用者可以發送一條請求多個操作的訊息,從而無需與模型進行多次來回互動。

如何存取 GPT-4 Turbo
「所有付費開發人員」都可以存取 GPT-4 Turbo,這意味著如果您具有 API 存取權限,則只需在 OpenAI API 中傳遞「gpt-4-1106-preview」作為模型名稱即可。同樣,對於具有視覺功能的 GPT-4 Turbo,您可以將“gpt-4-vision-preview”作為模型名稱。

請注意,這些預覽模型尚未被認為適合生產使用。然而,作為公告的一部分,Altman 也承諾將在未來幾週內推出可投入生產的版本。

對於非開發人員來說,GPT-4 Turbo 可能會在未來幾週內向 ChatGPT Plus 和 ChatGPT Enterprise 用戶提供。

速率限制
透過 OpenAI API 存取 GPt 模型的速率受到限制。也就是說,您每月只能向 API 發出有限數量的請求。 OpenAI 現已發布關於速率限制如何運作的更清晰指南,因此您的應用程式不會意外被切斷。

此外,GPT-4 的速率限制增加了一倍

由於 GPT-4 Turbo 目前處於預覽階段,因此GPT-4 Turbo 的速率限制設定為每分鐘 20 個請求和每天 100 個請求。 OpenAI 已表示,他們目前不會適應此模型的速率限制增加。然而,一旦公開版本可用,他們很可能會這樣做。

最後的想法
Post Reply