2024 年 8 個頂尖開源法學碩士及其用途

Engage in the Latest Data forum for valuable lead-generation strategies
Post Reply
urrifat77
Posts: 34
Joined: Tue Dec 03, 2024 8:07 am

2024 年 8 個頂尖開源法學碩士及其用途

Post by urrifat77 »

如果沒有所謂的大語言模型(LLM),目前的生成式人工智慧革命就不可能實現。 LLM基於Transformer(強大的神經架構),是用於建模和處理人類語言的人工智慧系統。它們被稱為“大型”,因為它們有數億甚至數十億個參數,這些參數是使用大量的文字資料語料庫進行預訓練。

立即開始我們的大型語言模型 (LLM) 概念課程,詳細了解 LLM 的工作原理。

LLM 是流行且廣泛使用的聊天機器人的基礎模型,例如ChatGPT和Google Bard。特別是,ChatGPT 由OpenAI 開發和擁有的 LLM GPT-4提供支持,而 Google Bard 是基於 Google 的 PaLM 2 模型。

ChatGPT 和 Bard 以及許多其他流行的聊天機器人的共 阿根廷電話號碼列表 同點是它們的底層 LLM 都是專有的。這意味著它們歸公司所有,只能由客戶在購買許可證後使用。該許可證附帶權利,但也可能對如何使用法學碩士進行限制,以及有關技術背後機制的有限資訊。

然而,法學碩士領域的一項平行運動正在迅速加快步伐:開源法學碩士。人們越來越擔心專有法學碩士(主要由微軟、谷歌和Meta 等大型科技公司控制)缺乏透明度和可訪問性有限,開源法學碩士有望使快速增長的LMM 和生成式人工智慧領域變得更容易訪問、更透明,並具有創新性。

本文旨在探討 2023 年可用的頂級開源 LLM。繼續閱讀以查看最受歡迎的內容!

開發人工智慧應用
學習使用 OpenAI API 建立 AI 應用程式。
使用開源法學碩士的好處
選擇開源法學碩士而不是專有法學碩士有多種短期和長期好處。您可以在下面找到最令人信服的原因清單:

增強的資料安全和隱私
使用專有法學碩士的最大問題之一是資料外洩或法學碩士提供者未經授權存取敏感資料的風險。事實上,關於涉嫌將個人和機密資料用於培訓目的已經存在一些爭議。

透過使用開源法學碩士,公司將全權負責個人資料的保護,因為他們將對其保持完全控制。

節省成本並減少供應商依賴性
大多數專有法學碩士都需要許可證才能使用。從長遠來看,這可能是一些公司,尤其是中小企業可能無法負擔的重要費用。開源法學碩士的情況並非如此,因為它們通常可以免費使用。

然而,需要注意的是,運行法學碩士需要大量資源,即使只是用於推理,這意味著您通常需要為使用雲端服務或強大的基礎設施付費。

代碼透明度和語言模型定制
選擇開源法學碩士的公司將能夠存取法學碩士的運作方式,包括其原始程式碼、架構、培訓數據以及培訓和推理機制。這種透明度是審查的第一步,也是客製化的第一步。

由於所有人都可以存取開源法學碩士(包括其原始程式碼),因此使用它們的公司可以根據自己的特定用例對其進行自訂。

積極的社區支持和促進創新
開源運動有望使法學碩士和生成式人工智慧技術的使用和訪問民主化。允許開發人員檢查法學碩士的內部運作是該技術未來發展的關鍵。透過降低世界各地編碼員的准入門檻,開源法學碩士可以透過減少偏見、提高準確性和整體性能來促進創新並改進模型。

解決人工智慧的環境足跡
隨著法學碩士的普及,研究人員和環境監管機構對運行這些技術所需的碳足跡和水消耗提出了擔憂。專有法學碩士很少發布有關培訓和運營法學碩士所需資源的信息,也很少發布相關環境足跡的信息。

透過開源法學碩士,研究人員有更多機會了解這些信息,這可以為旨在減少人工智慧環境足跡的新改進打開大門。

2024 年 8 個頂級開源大型語言模型
1.美洲駝3.1


法學碩士領域的大多數頂尖參與者都選擇閉門建立法學碩士。然而,Meta 仍然是一個例外,它有一系列開源 LLM,現在包括最新的LLaMA 3.1。

LLaMA 3.1 於 2024 年 7 月 23 日發布,包括具有 8B、70B 的型號,並首次增加了 405B 參數,使其成為該系列中最大的型號。這些模型旨在處理跨多種語言的各種自然語言處理任務,包括英語、西班牙語、葡萄牙語、德語、泰語、法語、義大利語和印地語。

LLaMA 3.1 模型支援大幅增加的 128,000 個標記的上下文長度,這增強了它們處理和理解冗長文本的能力,從而顯著提高複雜推理任務的性能並在較長的對話中保持上下文。

尤其是 405B 模型,它是合成資料生成的強大動力,可用於訓練其他模型和知識蒸餾,允許將大型模型中的知識轉移到更小、更有效率的模型。此功能為在資源有限的環境中部署高階人工智慧開闢了新的可能性。

此外,LLaMA 3.1 繼續利用人類回饋的強化學習 (RLHF),確保模型符合人類對有用性和安全性的偏好。

要了解有關 LLaMA 的更多信息,請查看我們的Meta AI LLaMA 簡介和微調 LLaMA 3.1文章。

2. 綻放
圖6.png

BLOOM於 2022 年推出,經過與來自 70 多個國家的志願者和 Hugging Face 的研究人員進行為期一年的合作項目,BLOOM是一門自回歸法學碩士,經過訓練,可以使用工業規模的計算資源根據大量文字資料的提示繼續文字。

BLOOM 的發布標誌著生成式人工智慧民主化的一個重要里程碑。 BLOOM 擁有 1,760 億個參數,是最強大的開源法學碩士之一,能夠以 46 種語言和 13 種程式語言提供連貫且準確的文本。

透明度是 BLOOM 的支柱,在這個專案中,每個人都可以存取原始程式碼和訓練數據,以便運行、研究和改進它。

BLOOM 可以透過 Hugging Face 生態系統免費使用。

Image

3.伯特
圖片5.png

LLM 的底層技術是一種稱為 Transformer 的神經架構。它是由Google研究人員於 2017 年在論文《Attention is All You Need》中開發的。 BERT 是最早測試 Transformer 潛力的實驗之一。

BERT(代表來自 Transformers 的雙向編碼器表示)由 Google 於 2018 年推出,作為開源法學碩士,在許多自然語言處理任務中迅速實現了最先進的性能。

由於法學碩士早期的創新功能及其開源性質,Bert 成為最受歡迎和廣泛使用的法學碩士之一。例如,2020 年,Google宣布已透過 70 多種語言的Google搜尋採用 Bert。

目前有數千個開源、免費和預先訓練的 Bert 模型可用於特定用例,例如情緒分析、臨床記錄分析和有毒評論檢測。

對 BERT 的可能性有興趣嗎?查看我們的BERT 簡介文章。

4.獵鷹180B
圖片2.png
Post Reply