小男孩‘自慰网亚洲一区二区,亚洲一级在线播放毛片,亚洲中文字幕av每天更新,黄aⅴ永久免费无码,91成人午夜在线精品,色网站免费在线观看,亚洲欧洲wwwww在线观看

分享

2023年的7個頂級大模型【含視覺語言模型】

 天承辦公室 2023-09-25

在本文中,我們將深入研究大規(guī)模語言模型領(lǐng)域的最新進展,探索每個模型引入的增強功能、其功能和潛在應(yīng)用。 我們還將研究視覺語言模型 (VLM),這些模型經(jīng)過訓(xùn)練不僅可以處理文本數(shù)據(jù),還可以處理視覺數(shù)據(jù)。

2023年的7個頂級大模型【含視覺語言模型】

推薦:用 NSDT編輯器 快速搭建可編程3D場景

1、OpenAI GPT-3

OpenAI 團隊推出了 GPT-3,作為為每個新語言任務(wù)提供標(biāo)記數(shù)據(jù)集的替代方案。 他們建議擴大語言模型的規(guī)??梢蕴岣吲c任務(wù)無關(guān)的小樣本性能。 為了測試這一建議,他們訓(xùn)練了一個名為 GPT-3 的 175B 參數(shù)自回歸語言模型,并評估了其在二十多個 NLP 任務(wù)上的性能。 在少樣本學(xué)習(xí)、單樣本學(xué)習(xí)和零樣本學(xué)習(xí)下的評估表明,GPT-3 取得了可喜的結(jié)果,甚至偶爾優(yōu)于微調(diào)模型所取得的最先進的結(jié)果。

GPT-3的目標(biāo)是什么?

  • 當(dāng)每個新的語言任務(wù)都需要標(biāo)記數(shù)據(jù)集時,為現(xiàn)有問題提出替代解決方案。

如何解決這個問題?

  • 研究人員建議擴大語言模型的規(guī)模,以提高與任務(wù)無關(guān)的小樣本性能。
  • GPT-3 模型使用與 GPT-2 相同的模型和架構(gòu),包括修改的初始化、預(yù)歸一化和可逆標(biāo)記化。
  • 然而,與 GPT-2 相比,它在 Transformer 的層中使用交替的密集和局部帶狀稀疏注意力模式,如稀疏 Transformer 中一樣。
2023年的7個頂級大模型【含視覺語言模型】

結(jié)果如何?

  • 未經(jīng)微調(diào)的 GPT-3 模型在許多 NLP 任務(wù)上取得了可喜的結(jié)果,甚至偶爾超越了針對該特定任務(wù)進行微調(diào)的最先進模型:
  • 在 CoQA 基準(zhǔn)測試中,零樣本設(shè)置中的 F1 為 81.5,單樣本設(shè)置中的 F1 為 84.0,少樣本設(shè)置中的 F1 為 85.0,而微調(diào) SOTA 獲得的 F1 分?jǐn)?shù)為 90.7。
  • 在 TriviaQA 基準(zhǔn)測試中,零樣本設(shè)置的準(zhǔn)確率為 64.3%,單樣本設(shè)置的準(zhǔn)確率為 68.0%,少樣本設(shè)置的準(zhǔn)確率為 71.2%,比現(xiàn)有技術(shù)(68%)高出 3.2%。
  • 在 LAMBADA 數(shù)據(jù)集上,零樣本設(shè)置的準(zhǔn)確率為 76.2%,單樣本設(shè)置為 72.5%,少樣本設(shè)置為 86.4%,比現(xiàn)有技術(shù)(68%)高出 18%。
  • 根據(jù)人類評估,175B 參數(shù) GPT-3 模型生成的新聞文章與真實文章很難區(qū)分(準(zhǔn)確率僅略高于約 52% 的機會水平)。
  • 盡管 GPT-3 表現(xiàn)出色,但 AI 社區(qū)對它的評價卻褒貶不一:

“GPT-3 的炒作太過分了。 它令人印象深刻(感謝您的贊美?。?,但它仍然有嚴(yán)重的弱點,有時會犯非常愚蠢的錯誤。 人工智能將改變世界,但 GPT-3 只是一個非常早期的雛形。 我們還有很多事情需要弄清楚?!?– Sam Altman,OpenAI 首席執(zhí)行官兼聯(lián)合創(chuàng)始人。

“我很震驚,從 GPT-3 生成與暴力……或被殺無關(guān)的有關(guān)穆斯林的文本是多么困難……”——Gradio 首席執(zhí)行官兼創(chuàng)始人 Abubakar Abid。

“不。 GPT-3 從根本上不理解它所談?wù)摰氖澜纭?進一步增加語料庫將使其能夠生成更可信的模仿作品,但無法解決其對世界理解的根本缺陷。 GPT-4 的演示仍然需要人工挑選?!?– Gary Marcus,Robust.ai 首席執(zhí)行官兼創(chuàng)始人。
“將 GPT3 的驚人性能推斷到未來表明,生命、宇宙和一切的答案只是 4.398 萬億個參數(shù)?!?——杰弗里·辛頓(Geoffrey Hinton),圖靈獎獲得者。

在哪里可以了解有關(guān)GPT-3研究的更多信息?

  • 研究論文:語言模型是少樣本學(xué)習(xí)者

哪里可以獲得GPT-3的實現(xiàn)代碼?

  • 代碼本身不可用,但一些數(shù)據(jù)集統(tǒng)計數(shù)據(jù)以及來自 GPT-3 的無條件、未經(jīng)過濾的 2048 個令牌樣本已在 GitHub 上發(fā)布。

2、Google LaMDA

對話應(yīng)用語言模型 (LaMDA) 是通過微調(diào)一組專門為對話設(shè)計的基于 Transformer 的神經(jīng)語言模型而創(chuàng)建的。 這些模型最多有 137B 個參數(shù),并經(jīng)過訓(xùn)練以使用外部知識源。 LaMDA 開發(fā)人員牢記三個關(guān)鍵目標(biāo):質(zhì)量、安全和扎實。 結(jié)果表明,微調(diào)可以縮小與人類水平的質(zhì)量差距,但模型在安全性和接地性方面的性能仍然低于人類水平。

Google 的 Bard 最近作為 ChatGPT 的替代品發(fā)布,由 LaMDA 提供支持。 盡管Bard經(jīng)常被貼上無聊的標(biāo)簽,但它可以被視為谷歌致力于優(yōu)先考慮安全的證據(jù),即使谷歌和微軟之間為了在生成人工智能領(lǐng)域建立主導(dǎo)地位而展開激烈競爭。

LaMDA的目標(biāo)是什么?

  • 為開放域?qū)υ拺?yīng)用程序構(gòu)建一個模型,其中對話代理能夠就任何主題進行對話,并做出明智的、特定于上下文的、基于可靠來源且符合道德的響應(yīng)。

LaMDA如何解決這個問題?

  • LaMDA 建立在 Transformer 之上,Transformer 是 Google Research 于 2017 年發(fā)明并開源的一種神經(jīng)網(wǎng)絡(luò)架構(gòu)。
  • 與其他大型語言模型(包括 BERT 和 GPT-3)一樣,LaMDA 使用 TB 級的文本數(shù)據(jù)進行訓(xùn)練,以了解單詞之間的相互關(guān)系,然后預(yù)測接下來可能出現(xiàn)的單詞。
    然而,與大多數(shù)語言模型不同的是,LaMDA 接受了對話訓(xùn)練,以發(fā)現(xiàn)區(qū)分開放式對話與其他形式語言的細(xì)微差別。
  • 該模型還經(jīng)過微調(diào),以提高其響應(yīng)的敏感性、安全性和特異性。 雖然“那很好”和“我不知道”之類的短語在許多對話場景中可能有意義,但它們不太可能引發(fā)有趣且引人入勝的對話。
  • LaMDA 生成器首先生成幾個候選響應(yīng),所有這些響應(yīng)都根據(jù)它們的安全性、合理性、具體性和有趣性進行評分。 過濾掉安全分?jǐn)?shù)較低的響應(yīng),然后選擇排名最高的結(jié)果作為響應(yīng)。
2023年的7個頂級大模型【含視覺語言模型】

結(jié)果如何?

  • 大量實驗表明,LaMDA 可以參與各種主題的開放式對話。
  • 一系列定性評估證實,該模型的反應(yīng)往往是明智的、具體的、有趣的,并且基于可靠的外部來源,但仍有改進的空間。
  • 盡管迄今為止取得了所有進展,但作者認(rèn)識到該模型仍然存在許多局限性,可能導(dǎo)致產(chǎn)生不適當(dāng)甚至有害的反應(yīng)。

在哪里可以了解有關(guān)LaMDA研究的更多信息?

  • 研究論文:LaMDA:對話應(yīng)用程序的語言模型
  • Google 研究團隊的博客文章:LaMDA:邁向安全、可靠、高質(zhì)量的萬物對話模型 、LaMDA:我們突破性的對話技術(shù) 、通過語言了解世界

哪里可以獲得LaMDA的實現(xiàn)代碼?

  • LaMDA 預(yù)訓(xùn)練架構(gòu)的開源 PyTorch 實現(xiàn)可在 GitHub 上找到。

3、Google PaLM

PaLM(Pathways Language Model)是一個擁有 5400 億個參數(shù)、基于 Transformer 的語言模型。 PaLM 使用 Pathways 在 6144 TPU v4 芯片上進行訓(xùn)練,Pathways 是一種新的 ML 系統(tǒng),可跨多個 TPU Pod 進行高效訓(xùn)練。 該模型展示了在少量學(xué)習(xí)中進行擴展的好處,在數(shù)百個語言理解和生成基準(zhǔn)上取得了最先進的結(jié)果。 PaLM 在多步推理任務(wù)上的表現(xiàn)優(yōu)于經(jīng)過微調(diào)的最先進模型,并且在 BIG-bench 基準(zhǔn)測試中超過了人類的平均表現(xiàn)。

PaLM的目標(biāo)是什么?

  • 提高對大型語言模型的擴展如何影響小樣本學(xué)習(xí)的理解。

PaLM如何解決這個問題?

  • 關(guān)鍵思想是使用 Pathways 系統(tǒng)擴展 5400 億參數(shù)語言模型的訓(xùn)練:
  • 該團隊在兩個 Cloud TPU v4 Pod 之間使用 Pod 級別的數(shù)據(jù)并行性,同時在每個 Pod 中使用標(biāo)準(zhǔn)數(shù)據(jù)和模型并行性。
  • 他們能夠?qū)⒂?xùn)練擴展到 6144 個 TPU v4 芯片,這是迄今為止用于訓(xùn)練的最大的基于 TPU 的系統(tǒng)配置。
  • 該模型實現(xiàn)了 57.8% 硬件 FLOP 利用率的訓(xùn)練效率,正如作者聲稱的那樣,這是該規(guī)模的大型語言模型迄今為止達(dá)到的最高訓(xùn)練效率。
  • PaLM 模型的訓(xùn)練數(shù)據(jù)包括英語和多語言數(shù)據(jù)集的組合,其中包含高質(zhì)量的網(wǎng)絡(luò)文檔、書籍、維基百科、對話和 GitHub 代碼。
2023年的7個頂級大模型【含視覺語言模型】

結(jié)果如何?

  • 大量實驗表明,隨著團隊擴展到最大的模型,模型性能急劇提高。
  • PaLM 540B 在多項非常困難的任務(wù)上取得了突破性的性能:
  • 語言理解和生成。 所引入的模型在 29 項任務(wù)中的 28 項上超越了先前大型模型的少數(shù)樣本性能,其中包括問答任務(wù)、完形填空和句子完成任務(wù)、上下文閱讀理解任務(wù)、常識推理任務(wù)、SuperGLUE 任務(wù)和 更多的。 PaLM 在 BIG-bench 任務(wù)中的表現(xiàn)表明,它可以區(qū)分因果關(guān)系,以及理解適當(dāng)上下文中的概念組合。
  • 推理。 通過 8 次提示,PaLM 解決了 GSM8K 中 58% 的問題,這是數(shù)千個具有挑戰(zhàn)性的小學(xué)水平數(shù)學(xué)問題的基準(zhǔn),超過了之前通過微調(diào) GPT-3 175B 模型獲得的最高分 55%。 PaLM 還展示了在需要多步邏輯推理、世界知識和深入語言理解的復(fù)雜組合的情況下生成明確解釋的能力。
  • 代碼生成。 PaLM 的性能與經(jīng)過微調(diào)的 Codex 12B 相當(dāng),同時使用的 Python 代碼減少了 50 倍進行訓(xùn)練,這證實大型語言模型可以更有效地從其他編程語言和自然語言數(shù)據(jù)遷移學(xué)習(xí)。

在哪里可以了解有關(guān)PaLM研究的更多信息?

  • 研究論文:PaLM:通過路徑擴展語言建模
  • 博客文章:Pathways 語言模型 (PaLM):Google Research 擴展到 5400 億個參數(shù)以實現(xiàn)突破性性能

哪里可以獲得PaLM的實現(xiàn)代碼?

  • PaLM 研究論文中特定 Transformer 架構(gòu)的非官方 PyTorch 實現(xiàn)可在 GitHub 上找到。 它不不具備伸縮能力,并且僅出于教育目的而發(fā)布。

4、DeepMind Flamingo

Flamingo 是一個尖端的視覺語言模型 (VLM) 系列,在包含混合文本和圖像的大規(guī)模多模態(tài)網(wǎng)絡(luò)語料庫上進行訓(xùn)練。 通過這種訓(xùn)練,模型可以使用最少的帶注釋的示例(作為提示提供)來適應(yīng)新任務(wù)。 Flamingo 融合了關(guān)鍵的架構(gòu)進步,旨在融合預(yù)訓(xùn)練的僅視覺和僅語言模型的優(yōu)勢,處理可變交錯的視覺和文本數(shù)據(jù)序列,并無縫容納圖像或視頻作為輸入。 這些模型展示了對一系列圖像和視頻任務(wù)(例如視覺問答、字幕任務(wù)和多項選擇視覺問答)的令人印象深刻的適應(yīng)性,在幾次學(xué)習(xí)中使用特定于任務(wù)的提示設(shè)定了新的性能標(biāo)準(zhǔn)。

Flamingo的目標(biāo)是什么?

  • 為了在使多模式模型能夠根據(jù)簡短指令快速學(xué)習(xí)和執(zhí)行新任務(wù)方面取得進展:
    廣泛使用的范例是在大量監(jiān)督數(shù)據(jù)上預(yù)訓(xùn)練模型,然后針對特定任務(wù)對其進行微調(diào),這種范例是資源密集型的,需要數(shù)千個帶注釋的數(shù)據(jù)點以及仔細(xì)的每個任務(wù)超參數(shù)調(diào)整。
  • 當(dāng)前使用對比目標(biāo)的模型允許零樣本適應(yīng)新任務(wù),但無法完成字幕或視覺問答等開放式任務(wù),因為它們?nèi)狈φZ言生成能力。
  • 本研究旨在引入一種新模型,可以有效解決這些問題,并在低數(shù)據(jù)情況下展示卓越的性能。

Flamingo如何解決這個問題?

  • DeepMind 推出了的Flamingo VLM 專為各種開放式視覺和語言任務(wù)的小樣本學(xué)習(xí)而設(shè)計,僅使用少量輸入/輸出示例。
  • Flamingo 模型是視覺條件自回歸文本生成模型,可以處理與圖像和/或視頻混合的文本標(biāo)記并生成文本作為輸出。
  • Flamingo 的架構(gòu)包含兩個互補的預(yù)訓(xùn)練和凍結(jié)模型:能夠“感知”視覺場景的視覺模型、負(fù)責(zé)執(zhí)行基本推理的大型語言模型。
  • 新穎的架構(gòu)組件以保留在計算密集型預(yù)訓(xùn)練期間獲得的知識的方式集成這些模型。
  • 此外,F(xiàn)lamingo 模型采用基于感知器的架構(gòu),使它們能夠攝取高分辨率圖像或視頻。 該架構(gòu)可以從廣泛且可變的視覺輸入特征陣列中為每個圖像/視頻生成固定數(shù)量的視覺標(biāo)記。

結(jié)果如何?

  • 研究表明,與 LLM 一樣,VLM 可以從一些輸入/輸出示例中學(xué)習(xí)圖像和視頻理解任務(wù),例如分類、字幕或問答。
  • Flamingo 在少樣本學(xué)習(xí)方面樹立了新的基準(zhǔn),在 16 種多模態(tài)語言和圖像/視頻理解任務(wù)中展示了卓越的性能。
  • 對于這 16 項任務(wù)中的 6 項,F(xiàn)lamingo 超越了最先進的微調(diào)性能,盡管它僅使用 32 個特定于任務(wù)的示例 - 比當(dāng)前表現(xiàn)最佳的模型少大約 1000 倍的特定于任務(wù)的訓(xùn)練數(shù)據(jù)。
2023年的7個頂級大模型【含視覺語言模型】

在哪里可以了解有關(guān)Flamingo研究的更多信息?

  • 研究論文:Flamingo:用于少樣本學(xué)習(xí)的視覺語言模型
  • DeepMind 的博客文章:使用單一視覺語言模型處理多個任務(wù)

哪里可以獲得Flamingo的實現(xiàn)代碼?

  • DeepMind 沒有發(fā)布 Flamingo 的官方實現(xiàn)。
  • 你可以在 OpenFlamingo Github Repo 中找到所介紹方法的開源實現(xiàn)。
  • 替代的 PyTorch 實現(xiàn)可在此處找到。

5、Salesforce BLIP-2

BLIP-2 是一種高效且通用的視覺和語言模型預(yù)訓(xùn)練框架,旨在規(guī)避預(yù)訓(xùn)練大型模型日益高昂的成本。 BLIP-2 利用現(xiàn)成的凍結(jié)預(yù)訓(xùn)練圖像編碼器和凍結(jié)大型語言模型來引導(dǎo)視覺語言預(yù)訓(xùn)練,并結(jié)合了分兩個階段預(yù)訓(xùn)練的輕量級查詢轉(zhuǎn)換器。 第一階段從凍結(jié)的圖像編碼器啟動視覺語言表示學(xué)習(xí),第二階段推動從凍結(jié)的語言模型進行視覺到語言的生成學(xué)習(xí)。 盡管可訓(xùn)練參數(shù)明顯減少,但 BLIP-2 的性能優(yōu)于最先進的方法,在零樣本 VQAv2 上超過 DeepMind 的 Flamingo80B 8.7%,可訓(xùn)練參數(shù)少了 54 倍。 該模型還展現(xiàn)了遵循自然語言指令的有前途的零樣本圖像到文本生成功能。

2023年的7個頂級大模型【含視覺語言模型】

BLIP-2的目標(biāo)是什么?

  • 在視覺語言任務(wù)上獲得最先進的性能,同時降低計算成本。

BLIP-2如何解決這個問題?

  • Salesforce 團隊推出了一種新的視覺語言預(yù)訓(xùn)練框架,稱為 BLIP-2,使用凍結(jié)單峰模型進行引導(dǎo)語言圖像預(yù)訓(xùn)練:
  • 預(yù)訓(xùn)練的單模態(tài)模型在預(yù)訓(xùn)練期間保持凍結(jié)狀態(tài),以減少計算成本并避免災(zāi)難性遺忘的問題。
  • 為了促進跨模態(tài)對齊并彌合預(yù)訓(xùn)練視覺模型和預(yù)訓(xùn)練語言模型之間的模態(tài)差距,該團隊提出了一種輕量級查詢變換器(Q-Former),它充當(dāng)凍結(jié)圖像編碼器和凍結(jié)語言模型之間的信息瓶頸。
  • Q-former 使用新的兩階段策略進行了預(yù)訓(xùn)練:第一個預(yù)訓(xùn)練階段執(zhí)行視覺語言表示學(xué)習(xí)。 這迫使 Q-Former 學(xué)習(xí)與文本最相關(guān)的視覺表示。第二個預(yù)訓(xùn)練階段通過將 Q-Former 的輸出連接到凍結(jié)的 LLM 來執(zhí)行視覺到語言的生成學(xué)習(xí)。 Q-Former 經(jīng)過訓(xùn)練,使其輸出的視覺表示可以由LLM解釋。

結(jié)果如何?

  • BLIP-2 在各種視覺語言任務(wù)中提供了卓越的、最先進的結(jié)果,包括視覺問答、圖像字幕和圖像文本檢索。
  • 例如,它在零樣本 VQAv2 上比 Flamingo 好 8.7%。
  • 此外,這種出色的性能是通過顯著提高的計算機效率實現(xiàn)的:BLIP-2 的性能優(yōu)于 Flamingo-80B,同時使用的可訓(xùn)練參數(shù)減少了 54 倍。
  • BLIP-2 能夠響應(yīng)自然語言指令進行零樣本圖像到文本生成,從而為發(fā)展視覺知識推理和視覺對話等技能鋪平道路。
  • 最后,值得注意的是,BLIP-2 是一種多功能方法,可以利用更復(fù)雜的單模態(tài)模型來進一步提高視覺語言預(yù)訓(xùn)練的性能。
2023年的7個頂級大模型【含視覺語言模型】

在哪里可以了解有關(guān)BLIP-2研究的更多信息?

  • 研究論文:BLIP-2:使用凍結(jié)圖像編碼器和大型語言模型進行引導(dǎo)語言圖像預(yù)訓(xùn)練
  • 博客文章:BLIP-2:世界上第一個開源多模態(tài)聊天機器人的多模態(tài)基礎(chǔ)模型的可擴展預(yù)訓(xùn)練

哪里可以獲得BLIP-2的實現(xiàn)代碼?

  • 官方 BLIP-2 實現(xiàn)可在 GitHub 上找到。

6、Meta LLaMA

Meta AI 團隊聲稱,在更多令牌上訓(xùn)練的較小模型更容易針對特定產(chǎn)品應(yīng)用進行重新訓(xùn)練和微調(diào)。 因此,他們引入了LLaMA(Large Language Model Meta AI),這是一個具有7B到65B參數(shù)的基礎(chǔ)語言模型的集合。 LLaMA 33B 和 65B 使用 1.4 萬億個令牌進行訓(xùn)練,而最小的模型 LLaMA 7B 使用 1 萬億個令牌進行訓(xùn)練。 他們專門使用公開可用的數(shù)據(jù)集,而不依賴專有或受限數(shù)據(jù)。 該團隊還實施了關(guān)鍵的架構(gòu)增強和訓(xùn)練速度優(yōu)化技術(shù)。 因此,LLaMA-13B 的性能優(yōu)于 GPT-3,尺寸縮小了 10 倍以上,并且 LLaMA-65B 表現(xiàn)出與 PaLM-540B 競爭的性能。

LLaMA的目標(biāo)是什么?

  • 證明僅在可公開訪問的數(shù)據(jù)集上訓(xùn)練高性能模型而不依賴專有或受限數(shù)據(jù)源的可行性。
  • 為研究社區(qū)提供更小、性能更高的模型,從而使那些無法訪問大量基礎(chǔ)設(shè)施的人能夠研究大型語言模型。

LLaMA如何解決這個問題?

  • 為了訓(xùn)練 LLaMA 模型,研究人員僅使用公開且與開源兼容的數(shù)據(jù)。
  • 他們還對標(biāo)準(zhǔn) Transformer 架構(gòu)進行了一些改進:
  • 采用GPT-3方法,通過標(biāo)準(zhǔn)化每個變壓器子層的輸入而不是標(biāo)準(zhǔn)化輸出來增強訓(xùn)練的穩(wěn)定性。
  • 受到PaLM模型的啟發(fā),研究人員用SwiGLU激活函數(shù)代替了ReLU非線性,以提高性能。
  • 受 Su 等人(2021)的啟發(fā),他們消除了絕對位置嵌入,而是在網(wǎng)絡(luò)的每一層都加入了旋轉(zhuǎn)位置嵌入(RoPE)。
  • 最后,Meta AI 團隊通過以下方式提高了模型的訓(xùn)練速度:
  • 通過不存儲注意力權(quán)重或計算屏蔽鍵/查詢分?jǐn)?shù)來使用有效的因果多頭注意力實現(xiàn)。
  • 使用檢查點來最小化向后傳遞過程中重新計算的激活。
  • 重疊激活的計算和 GPU 之間通過網(wǎng)絡(luò)的通信(由于 all_reduce 操作)。

結(jié)果如何?

  • 盡管 LLaMA-13B 比 GPT-3 小 10 倍以上,但 LLaMA-13B 仍超越了 GPT-3,而 LLaMA-65B 則與 PaLM-540B 不相上下。

在哪里可以了解有關(guān)LLaMA研究的更多信息?

  • 研究論文:LLaMA:開放且高效的基礎(chǔ)語言模型
  • 博客文章:LLaMA 簡介:Meta AI 提供的基礎(chǔ)性 650 億參數(shù)大語言模型

哪里可以獲得LLaMA的實現(xiàn)代碼?

  • Meta AI 在個案評估的基礎(chǔ)上向?qū)W術(shù)研究人員、與政府相關(guān)的個人、民間社會、學(xué)術(shù)機構(gòu)和全球行業(yè)研究實驗室提供 LLaMA 訪問權(quán)限。 要申請,請轉(zhuǎn)到以下 GitHub 存儲庫。

7、OpenAI 的 GPT-4

GPT-4 是一種大規(guī)模、多模式模型,它接受圖像和文本輸入并生成文本輸出。 出于競爭和安全考慮,有關(guān)模型架構(gòu)和訓(xùn)練的具體細(xì)節(jié)被隱瞞。 在性能方面,GPT-4 在傳統(tǒng)基準(zhǔn)上超越了之前的語言模型,并在用戶意圖理解和安全屬性方面顯示出顯著改進。 該模型還在各種考試中達(dá)到了人類水平的表現(xiàn),包括在模擬統(tǒng)一律師考試中取得前 10% 的成績。

GPT-4的目標(biāo)是什么?

  • 開發(fā)一個大規(guī)模的多模式模型,可以接受圖像和文本輸入并生成文本輸出。
  • 開發(fā)在廣泛范圍內(nèi)表現(xiàn)可預(yù)測的基礎(chǔ)設(shè)施和優(yōu)化方法。

GPT-4如何解決這個問題?

  • 由于競爭格局和安全影響,OpenAI 決定保留有關(guān)架構(gòu)、模型大小、硬件、訓(xùn)練計算、數(shù)據(jù)集構(gòu)建和訓(xùn)練方法的詳細(xì)信息。他們透露:
  • GPT-4 是一個基于 Transformer 的模型,經(jīng)過預(yù)先訓(xùn)練以預(yù)測文檔中的下一個標(biāo)記。
  • 它利用公開數(shù)據(jù)和第三方許可數(shù)據(jù)。
  • 該模型使用人類反饋強化學(xué)習(xí) (RLHF) 進行了微調(diào)。
  • 未經(jīng)證實的信息表明,GPT-4 并不是像其前身那樣的單一密集模型,而是由八個獨立模型組成的強大聯(lián)盟,每個模型包含驚人的 2200 億個參數(shù)。
2023年的7個頂級大模型【含視覺語言模型】

結(jié)果如何?

  • GPT-4 在大多數(shù)專業(yè)和學(xué)術(shù)考試中都達(dá)到了人類水平的表現(xiàn),特別是在模擬的統(tǒng)一律師考試中得分進入前 10%。
  • 預(yù)訓(xùn)練的基礎(chǔ) GPT-4 模型在傳統(tǒng) NLP 基準(zhǔn)上優(yōu)于現(xiàn)有語言模型和先前最先進的系統(tǒng),無需特定于基準(zhǔn)的制作或額外的訓(xùn)練協(xié)議。
  • GPT-4 在遵循用戶意圖方面表現(xiàn)出顯著改進,在 ChatGPT 和 OpenAI API 的 5,214 個提示中,有 70.2% 的響應(yīng)優(yōu)于 GPT-3.5。
  • 與 GPT-3.5 相比,GPT-4 的安全性能顯著提高,對不允許的內(nèi)容請求的響應(yīng)減少了 82%,對敏感請求(例如醫(yī)療建議和自殘)的政策合規(guī)性增加了 29%。

在哪里可以了解有關(guān)GPT-4研究的更多信息?

  • 研究論文:OpenAI 的 GPT-4 技術(shù)報告
  • 博客文章:OpenAI 的 GPT-4

哪里可以獲得GPT-4的實現(xiàn)代碼?

  • GPT-4 的代碼實現(xiàn)不可用。

8、大型(視覺)語言模型的實際應(yīng)用

近年來最重要的AI研究突破來自于在海量數(shù)據(jù)集上訓(xùn)練的大型人工智能模型。 這些模型展示了令人印象深刻的性能,并且令人著迷的是人工智能如何徹底改變整個行業(yè),例如客戶服務(wù)、營銷、電子商務(wù)、醫(yī)療保健、軟件開發(fā)、新聞業(yè)等。

大型語言模型有許多實際應(yīng)用。 GPT-4 列出了以下內(nèi)容:

  • 聊天機器人和虛擬助理的自然語言理解和生成。
  • 語言之間的機器翻譯。
  • 文章、報告或其他文本文檔的摘要。
  • 用于市場研究或社交媒體監(jiān)控的情緒分析。
  • 用于營銷、社交媒體或創(chuàng)意寫作的內(nèi)容生成。
  • 用于客戶支持或知識庫的問答系統(tǒng)。
  • 用于垃圾郵件過濾、主題分類或文檔組織的文本分類。
  • 個性化的語言學(xué)習(xí)和輔導(dǎo)工具。
  • 代碼生成和軟件開發(fā)協(xié)助。
  • 醫(yī)療、法律和技術(shù)文件分析和協(xié)助。
  • 適合殘障人士的輔助工具,例如文本到語音和語音到文本轉(zhuǎn)換。
  • 語音識別和轉(zhuǎn)錄服務(wù)。

如果我們添加視覺部分,可能的應(yīng)用領(lǐng)域?qū)⑦M一步擴展:

  • 幫助視障人士應(yīng)對日常視力挑戰(zhàn)。
  • 改進對網(wǎng)絡(luò)上仇恨內(nèi)容的識別。
  • 為人們的日常生活提供幫助的視覺助手。

關(guān)注最近的人工智能突破并思考它們在現(xiàn)實世界中的潛在應(yīng)用是非常令人興奮的。 然而,在現(xiàn)實生活中部署這些模型之前,我們需要解決相應(yīng)的風(fēng)險和限制,不幸的是,這些風(fēng)險和限制非常重要。

9、風(fēng)險和限制

如果你向 GPT-4 詢問其風(fēng)險和限制,它可能會為您提供一長串相關(guān)問題。 在篩選此列表并添加一些額外的考慮因素后,我最終得出了現(xiàn)代大型語言模型所具有的以下一組關(guān)鍵風(fēng)險和限制:

  • 偏見和歧視:這些模型從大量文本數(shù)據(jù)中學(xué)習(xí),這些數(shù)據(jù)通常包含偏見和歧視性內(nèi)容。 因此,生成的輸出可能會無意中延續(xù)基于性別、種族或宗教等因素的刻板印象、冒犯性語言和歧視。
  • 錯誤信息:大型語言模型可能會生成實際上不正確、具有誤導(dǎo)性或過時的內(nèi)容。 雖然模型是在各種來源上進行訓(xùn)練的,但它們可能并不總是提供最準(zhǔn)確或最新的信息。 通常會發(fā)生這種情況,因為模型會優(yōu)先生成語法正確或看起來連貫的輸出,即使它們具有誤導(dǎo)性。
  • 缺乏理解:雖然這些模型似乎理解人類語言,但它們主要通過識別訓(xùn)練數(shù)據(jù)中的模式和統(tǒng)計關(guān)聯(lián)來運行。 他們對自己生成的內(nèi)容沒有深入的了解,這有時會導(dǎo)致無意義或不相關(guān)的輸出。
  • 不當(dāng)內(nèi)容:語言模型有時會生成冒犯性、有害或不當(dāng)?shù)膬?nèi)容。 盡管我們努力盡量減少此類內(nèi)容,但由于訓(xùn)練數(shù)據(jù)的性質(zhì)以及模型無法識別上下文或用戶意圖,這種情況仍然可能發(fā)生。

10、結(jié)束語

大型語言模型無疑徹底改變了自然語言處理領(lǐng)域,并在提高各個角色和行業(yè)的生產(chǎn)力方面展現(xiàn)出巨大的潛力。 它們能夠生成類似人類的文本、自動執(zhí)行日常任務(wù)以及在創(chuàng)造性和分析過程中提供幫助,這使它們成為當(dāng)今快節(jié)奏、技術(shù)驅(qū)動的世界中不可或缺的工具。

然而,承認(rèn)并理解與這些強大模型相關(guān)的局限性和風(fēng)險至關(guān)重要。 偏見、錯誤信息和潛在的惡意使用等問題不容忽視。 隨著我們繼續(xù)將這些人工智能驅(qū)動的技術(shù)融入我們的日常生活,必須在利用其能力和確保人類監(jiān)督之間取得平衡,特別是在敏感和高風(fēng)險的情況下。

如果我們成功地負(fù)責(zé)任地采用生成式AI技術(shù),我們將為人工智能和人類專業(yè)知識共同推動創(chuàng)新并為所有人創(chuàng)造更美好世界的未來鋪平道路。


原文鏈接:
http://www./blog/2023-llm-top7/

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多