跳去內容

人工智能史

出自維基百科,自由嘅百科全書

人工智能史係指人工智能嘅歷史。

符號 AI

[編輯]
内文:符號 AI

符號 AI(symbolic AI),又叫老派 AI(good old-fashioned AI,GOFAI)[1],係最早期(同埋俾好多人認為係最易明)嘅 AI 運算方法:喺 1950 年代 AI 領域啱啱起步嗰陣,啲科學家好多都認為人類智能只不過係對邏輯符號嘅玩弄[2],而符號 AI 做法就將所受嘅 input 值用一大柞邏輯符號計算,再按照呢啲計算俾個 output 值出嚟睇;舉例說明,如果家吓有個設計者想教部電腦幫手睇病(input 值係「有關病人嘅資訊」,而 output 值係「診斷」),噉就要教佢

  • if 一個普遍健康嘅大人發燒then 佢有可能係感冒」、
  • if 一個普遍健康嘅大人發燒,then 佢都有可能係肺炎

... 等嘅若干條法則[3]

即係話符號 AI 嘅做法建基於三個諗頭[3]

  • 表示一個智能系統嘅模型可以完全明文噉定義[註 1]
  • 呢個模型當中嘅知識可以用邏輯符號表達;同埋
  • 認知過程(包括思考呀噉)可以描述為做喺呢啲符號身上嘅運算。

符號 AI 嘅做法可以話係比較原始,而且過咗冇幾耐啲 AI 研究者就發現有好多問題都係符號 AI 搞唔掂嘅[4][5]

神經網絡史

[編輯]

起源

[編輯]

人工神經網絡呢條橋最先係由美國神經科學家和倫·麥扣羅(Warren Sturgis McCulloch)同邏輯學家華特·畢特斯(Walter Pitts)喺 1943 年提出嘅[6],佢哋基於數學方法同一種叫做閾值邏輯(threshold logic)嘅演算法創造咗神經網絡嘅基本計算模型,令到科學界對神經網絡嘅研究分植咗做兩個唔同嘅子領域,一個專係分析大腦裏面嘅生物學過程,而另一個就研究神經網絡可以點樣應用落去人工智能嗰度,正式開展現代人工神經網絡研究[6]

海伯學習

[編輯]
内文:海伯理論

1950 年代仲開始有研究者受海伯理論(Hebbian theory)啟發整人工神經網絡:喺 1940 年代尾,加拿大心理學家當奴海伯(Donald O. Hebb)諗咗個假說出嚟描述神經細胞點隨住隻動物進行學習而有所改變,呢個後嚟會演變成所謂嘅海伯理論(Hebbian theory)。海伯理論嘅基本原則係,兩粒神經細胞愈係會一齊射神經訊號,就愈係會有強嘅連繫[7],呢個理論後尾演變做描述長期增強作用(long-term potentiation)嘅模型。喺 1954 年,美國有一啲科學家用運算機械去模擬一個跟住海伯定律嚟行嘅神經網絡[8],而呢種嘗試仲有第啲科學家跟住做,確立咗人類用運算機械(好似電腦噉)嚟模擬神經網絡嘅做法[9]

不過呢個時期嘅人工神經網絡受當時啲電腦嘅運算能力局限:美國心理學家法蘭·羅新伯拉特(Frank Rosenblatt)喺 1956 年創造咗感知機(perceptron)呢個演算法嚟去做模式識別[10],用簡單嘅實現咗一個兩層嘅電腦學習網絡。羅新伯拉特仲用數學符號描述咗啲基本感知機冇嘅迴路,例如係異或(exclusive-or circuit)迴路噉,呢啲迴路要打後電腦運算能力提高先有得用運算機械實現[11];後尾烏克蘭裔蘇聯數學家阿力斯·伊凡卡諾高(Alexey Ivakhnenko)同佢嘅同事史上首次成功噉整咗個行到嘅多層神經網絡出嚟。雖然神經網絡學界有呢啲成就,但係因為嗰陣啲電腦運算能力低得滯,搞到好多時啲科學家都冇辦法真係攞部電腦去模擬佢哋啲神經網絡模型,令到對人工神經網絡嘅研究停滯咗成十幾年[12][13]

反向傳播興起

[編輯]

後嚟喺 1975 年出現咗個關鍵性嘅進展-反向傳播演算法。呢個演算法有效噉解決咗異或嘅問題同埋多層神經網絡要點樣訓練嘅問題,令到對神經網絡嘅研究開始復甦[11]。喺廿世紀 80 年代中,科學界開始興用分散式並列處理(parallel distributed processing)模型嚟模擬人腦當中嘅過程,呢種模型將人腦當做一個同一時間處理大量資訊嘅物體(而唔係好似電腦噉好多時單一線路處理),而一班美國心理學家詳細噉論述咗點樣將呢種模型用落去用電腦模擬神經活動嗰度[14]

廿一世紀

[編輯]

打後嘅 1990 年至 2000 年代係人工神經網絡受挫同再起嘅時期:當時支援向量機(support vector machines)同第啲簡單過神經網絡嘅運算方法喺機械學習(指教機械學嘢嘅領域)上嘅人氣超越咗神經網絡,搞到神經網絡研究又稍微低沉咗一輪,但係喺 2000 年代尾興起嘅深度學習(deep learning)又重新激發咗人對神經網絡嘅興趣[15][16]

到咗 2010 年代,運算力勁嘅電腦同埋人工智能領域嘅展開令到世界各地嘅科學家都開始睇重神經網絡研究[17]。神經網絡俾人廣泛噉用嚟解決一啲之前以為係電腦冇可能解到問題,例如係翻譯視覺、數學上嘅解難甚至乎係藝術創作噉[18][19],仲開始有啲國際比賽俾啲科學家鬥用神經網絡嚟解決難題[20]。總括嚟講,廿一世紀初嘅神經網絡學界可以話係多姿多采[21]

註釋

[編輯]
  1. 即係忽略咗內隱知識

[編輯]
  1. Understanding the difference between Symbolic AI & Non Symbolic AI. 互聯網檔案館歸檔,歸檔日期2018年12月5號,.. Analytics India.
  2. Haugeland, John (1985), Artificial Intelligence: The Very Idea, Cambridge, Mass: MIT Press.
  3. 3.0 3.1 Flasiński, M. (2016). Symbolic Artificial Intelligence. In Introduction to Artificial Intelligence (pp. 15-22). Springer, Cham.
  4. Haugeland 1985, pp. 112-117.
  5. The most dramatic case of sub-symbolic AI being pushed into the background was the devastating critique of perceptrons by Marvin Minsky and Seymour Papert in 1969. See History of AI, AI winter, or Frank Rosenblatt.
  6. 6.0 6.1 McCulloch, Warren S.; Pitts, Walter. A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics. 1943-12-01, 5 (4): 115–133.
  7. Hebb, D.O. (1949). The Organization of Behavior. New York: Wiley & Sons.
  8. Farley, B.G.; W.A. Clark (1954). "Simulation of Self-Organizing Systems by Digital Computer". IRE Transactions on Information Theory. 4 (4): 76–84.
  9. Rochester, N.; J.H. Holland; L.H. Habit; W.L. Duda (1956). "Tests on a cell assembly theory of the action of the brain, using a large digital computer". IRE Transactions on Information Theory. 2 (3): 80–93.
  10. Rosenblatt, F. (1958). "The Perceptron: A Probabilistic Model For Information Storage And Organization In The Brain". Psychological Review. 65 (6): 386–408.
  11. 11.0 11.1 Werbos, P.J. (1975). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences.
  12. Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117.
  13. Ivakhnenko, A. G. (1973). Cybernetic Predicting Devices. CCM Information Corporation.
  14. Rumelhart, D.E; McClelland, James (1986). Parallel Distributed Processing: Explorations in the Microstructure of Cognition. Cambridge: MIT Press.
  15. Qian, N.; Sejnowski, T.J. (1988). "Predicting the secondary structure of globular proteins using neural network models". Journal of Molecular Biology. 202. pp. 865–884. Qian1988.
  16. Rost, B.; Sander, C. (1993). "Prediction of protein secondary structure at better than 70% accuracy". Journal of Molecular Biology. 232. pp. 584–599. Rost1993.
  17. Strukov, D. B.; Snider, G. S.; Stewart, D. R.; Williams, R. S. The missing memristor found. Nature. 2008, 453: 80–83.
  18. AI Painter 互聯網檔案館歸檔,歸檔日期2018年8月25號,..
  19. Symbolic Mathematics Finally Yields to Neural Networks. Quanta Magazine.
  20. 2012 Kurzweil AI Interview with Jürgen Schmidhuber on the eight competitions won by his Deep Learning team 2009–2012 互聯網檔案館歸檔,歸檔日期2018年8月31號,..
  21. Misra, J., & Saha, I. (2010). Artificial neural networks in hardware: A survey of two decades of progress. Neurocomputing, 74(1-3), 239-255.