和風網標誌

生成式人工智慧簡史 – DATAVERSITY

日期:

生成AI生成AI
Ole.CNX / Shutterstock

生成式人工智慧的歷史相當短,該技術最初是在 1960 世紀 2014 年代以聊天機器人的形式引入的。它是人工智慧的一種形式,目前可以在幾秒鐘內產生高品質的文字、圖像、視訊、音訊和合成資料。然而,直到 XNUMX 年,生成對抗網路 (GAN) 的概念被引入,生成人工智慧才發展到能夠創建看起來像真人真實錄音的圖像、視訊和音訊。

目前,生成式人工智慧是 ChatGPT 及其變體的主要組成部分。

該1950s

生成式人工智慧基於 機器學習 和深度學習演算法。第一個機器學習演算法是由 Arthur Samuel 於 1952 年為下棋而開發的——他還提出了「機器學習」這個詞。

第一個能夠被訓練的「神經網路」稱為 感知器,由康乃爾大學心理學家 Frank Rosenblatt 於 1957 年開發。感知器的設計與現代神經網路非常相似,但只有「一個」層包含可調節的閾值和權重,將輸入層和輸出層分開。這個系統失敗了,因為它太耗時了。

1960和1970年代

歷史上第一個生成式人工智慧的例子叫做 ELIZA。它也可以被認為是聊天機器人的早期版本。它由 Joseph Weizenbaum 於 1961 年創建。 伊莉莎 是一個會說話的電腦程序,可以使用自然語言和旨在聽起來具有同理心的回應來對人類做出反應。

1960年代和70年代,進行了電腦視覺和一些基本辨識模式的基礎研究。當 Ann B. Lesk、Leon D. Harmon 和 AJ Goldstein 顯著提高了臉部辨識的準確性時,臉部辨識取得了巨大的飛躍(人臉辨識中的人機交互,1972)。該團隊開發了 21 個特定標記,包括嘴唇厚度和頭髮顏色等特徵,以自動識別臉部。 

1970 年代,Seppo Linnainmaa 開始使用反向傳播。期限 ”反向傳播「是一個向後傳播錯誤的過程,作為學習過程的一部分。涉及的步驟是:

  1. 在輸出端處理
  2. 發送向後分發 
  3. 透過網路層進行訓練和學習 

(反向傳播用於訓練深度神經網路。) 

第一個人工智慧冬天將機器學習和人工智慧分開

第一個人工智慧冬天 開始和結束 大約從 1973 年到 1979 年——做出了承諾,但沒有兌現期望。資助人工智慧研究的機構(Darpa、NRC 和英國政府)突然因其發展缺乏進展而感到尷尬。 

然而,機器學習 (ML) 仍在不斷發展。不是因為它仍在接受政府資助,而是因為機器學習作為一種回應工具對企業來說變得非常有用。 機器學習 最初是作為人工智慧的一種訓練技術,但人們發現它也可以用來執行簡單的任務,例如接聽電話並將電話轉接給適當的人。雖然機器學習程式可能無法進行智慧對話,但它們可以執行基本但非常有用的任務。企業沒有興趣放棄既經濟又實用的工具。

企業選擇資助自己的研究來發展機器學習,而前研究人員也將自己重組為一個獨立的行業,直到 1990 世紀 XNUMX 年代再次與人工智慧合併。

儘管神經網絡是由芝加哥大學的兩位研究人員 Warren McCullough 和 Walter Pitts 於 1944 年提出的,但這是第一個功能性「多層」人工神經網絡, 認知機, 由福島邦彥於 1975 年開發。

神經網路為機器學習和深度學習的使用奠定了基礎。他們的設計支援輸入層和輸出層,它們之間的隱藏層用於轉換輸入數據,使其對輸出層有用。透過這種新設計,臉部和語音辨識能力得到了顯著提高。隱藏層也為深度學習提供了基礎。

在1979, 福島邦彥 建議開發一個分層的、多層的人工神經網絡,他將其命名為 新認知藥。這是第一個深度學習神經網路。他的設計支援電腦學習如何識別視覺模式,更具體地說,識別手寫字元的能力。他的設計還允許手動調整重要數據,從而允許人類增加某些連接的「權重」。

1980 世紀 XNUMX 年代和第二個人工智慧冬天

1982 年,約翰·霍普菲爾德 (John Hopfield) 又有了另一個發現,他開發了一種新形式的神經網路—— 霍普菲爾德網 – 使用完全不同的方法。霍普菲爾德網路比以前的系統更像人腦收集和檢索記憶。

然而,第二個人工智慧冬天大約從 1984 年開始,一直持續到 1990 年,減緩了人工智慧以及生成式人工智慧的發展。由於兌現承諾和期望落空而引發的憤怒和沮喪是如此強烈,“人工智慧”一詞呈現出偽科學的地位,並且經常被人輕蔑地談論。人們對人工智慧產生了廣泛的懷疑。不幸的是,大多數人工智慧和深度學習研究的資金被削減。

1986 年,David Rumelhart 和他的團隊推出了 一種新的方式 使用 1970 世紀 XNUMX 年代開發的反向傳播技術訓練神經網路。

在 1980 世紀 XNUMX 年代末,MOS(金屬氧化物半導體),於 1959 年開發)與 VLSI 合併(超大規模集成)並提供了更實用、更有效率的人工神經網路。這種組合稱為 互補MOS (或 CMOS)。

1989 年,深度學習成為現實,當時 Yann LeCun 和他的團隊使用反向傳播演算法和神經網路來識別手寫的郵遞區號。

深入學習 使用演算法處理數據並模仿人類思維過程。它採用旨在處理數據、視覺識別對象和理解人類語音的多層演算法。資料在每一層中移動,前一層的輸出提供下一層所需的輸入。在深度學習中,使用的附加層提供了更高層次的“抽象”,從而產生更好的預測和更好的分類。使用的層越多,做出更好預測的潛力就越大。 

深度學習已成為一種非常有用的訓練過程,支援影像辨識、語音辨識和處理大量資料。

1990 世紀 XNUMX 年代和人工智慧研究的復甦

由於人工智慧的資助在1990年代再次開始,機器學習作為訓練機制也獲得了資助。機器學習產業在人工智慧的第二個冬天繼續研究神經網絡,並在 1990 世紀 XNUMX 年代開始蓬勃發展。機器學習的持續成功很大程度上歸功於字元和語音辨識的使用,以及網路的快速發展和個人電腦的使用。

「Boosting」的概念是在 1990 年的論文中分享的 弱學習能力的優勢,羅伯特‧夏皮爾著。他解釋說,一組弱學習器可以創建一個強學習器。 提升算法 減少監督學習過程中的偏差,並包括能夠將多個弱學習器轉變為幾個強學習器的機器學習演算法。 (弱學習者的預測正確率略高於 50%。) 

電腦遊戲產業在幫助生成式人工智慧的發展方面值得大量讚譽。 3D顯示卡是圖形處理單元 (GPU) 的前身,於 1990 世紀 XNUMX 年代初首次推出,旨在改善電玩遊戲中的圖形呈現。 

1997 年,Juergen Schmidhuber 和 Sepp Hochreiter 創建了“長短期記憶」(LSTM)與循環神經網路一起使用。目前,大多數語音辨識訓練都使用這種技術。 LSTM 支援需要記憶數千步驟之前的事件的學習任務,而這些任務在對話中通常很重要。

Nvidia(負責許多遊戲技術的進步)於 1999 年開發了先進的 GPU,運算速度提高了一千倍。他們的第一個 GPU 被稱為 GeForce 256

令人驚訝的是,GPU 的用途不僅限於電玩遊戲。新的 GPU 被應用於人工神經網絡,取得了令人驚訝的正面結果。 圖形處理器 它在機器學習中變得非常有用,與中央處理單元相比,每個晶片使用的處理器數量大約是 200 倍。 (中央處理單元然而,CPU 更靈活,可以執行更廣泛的運算選擇,而 GPU 往往針對特定用例進行客製化。)

該2000s

人臉辨識大挑戰 促進改善 臉部辨識技術由美國政府資助,於 2004 年和 2006 年進行。它帶來了新的臉部辨識技術和臉部辨識性能。新開發的演算法比 2002 年使用的人臉辨識演算法準確度高出十倍。其中一些演算法甚至可以辨識同卵雙胞胎之間的差異。

2010 年代、虛擬助理與聊天機器人

4 年 2011 月 XNUMX 日, Siri的是第一個被認為具有功能性的數位虛擬助理,作為 iPhone 4S 的服務提供。指某東西的用途 聊天機器人 也大幅增加。 

2014年,生成對抗網路(GAN)的概念被提出。 GAN 用於創建看起來像是真實情況的真實錄音的圖像、視訊和音訊。          

生成對抗網路使用 兩個神經網絡 進行了同步對抗訓練:一個神經網路充當鑑別器,另一個充當生成器。鑑別器經過訓練可以區分產生的資料和真實資料。生成器創建合成資料並嘗試模仿真實資料。練習使生成器能夠更好地產生更真實的錄音來欺騙鑑別器。 GAN 可以創建很難(甚至不可能)被識別為人工的合成資料。

2020 年代和更聰明的聊天機器人

2022 年 XNUMX 月,OpenAI 推出了 ChatGPT,一種將生成式 AI 與 大型語言模型。 ChatGPT 及其變體已經實現了人工智慧的新水平。這些「更聰明的聊天機器人」可以進行研究,支援相當好的寫作,並產生逼真的視訊、音訊和影像。

生成式人工智慧訓練與大型語言模型的結合產生了具有思考和推理能力的人工智慧。他們也可能有「想像」的能力。 ChatGPT 被指控產生幻覺,這可以解釋為使用想像力。

現貨圖片

最新情報

現貨圖片