知識表示粵拼zi3 sik1 biu2 si6英文knowledge representation,KR)係認知科學人工智能領域當中一個受關注嘅課題[1][2],指一個認知系統-無論係人類定係人工智能-內部點樣表示有關「周圍世界點運作」嘅資訊,以及點樣用呢啲資訊對事物作出判斷同預測[3][4][5]

一個簡單嘅語義網絡;個網絡表達咗幾樣事物之間嘅關係,做到知識表示嘅效果。

舉個簡單例子說明,想像家陣有一個噉樣嘅神經網絡(neural network):個網絡有兩層,每層有若干粒神經細胞,第一層表示「見到嗰樣物件嘅特徵」,而第二層表示「將件物件分做乜嘢類」,第二層每粒神經細胞會同第一層嘅某啲細胞有連繫,喺某啲特定嘅第一層細胞啟動嗰時會跟住啟動,即係話,攞第 粒第二層細胞:

係第二層細胞 嘅啟動程度,
係第 粒第一層細胞嘅啟動程度,
係第 粒第一層細胞對第二層細胞 嘅影響力,而 數值可以係 0。

假想第一層細胞每粒代表咗一個特徵,而第二層細胞每粒代表咗一個類別。當個網絡望到外界有一件具有「有毛皮」、「有」同「四隻」等特徵嘅物件嗰時,呢啲特徵相應嘅第一層細胞就會啟動,而第二層細胞當中同呢柞細胞有連繫嗰粒-例如代表「」嗰粒第二層細胞-就會跟住啟動。噉即係話,呢個網絡曉一接收到某啲特徵,就將件物件歸類做某個相應嘅類別-「貓有毛皮、有鬚、四隻腳」係一個知識,而呢個知識就係用一個神經網絡嘅方式「表示」咗出嚟[6][7]

對知識表示嘅研究有相當嘅跨學科性:呢個領域會參考神經科學等領域嘅研究,尤其係有關「人腦點做知識表示」嘅研究(已知人腦曉做知識表示,問題係「到底人腦係點做到嘅呢?」),然後人工智能領域嘅研究者就會按呢啲知識,嘗試製作出能夠好似人噉做知識表示嘅電腦系統[8][9]

神經基礎

編輯
 
一個簡單嘅神經網絡圖解;一層神經細胞引致下一層神經細胞啟動,最後造成一個輸出。
睇埋:神經編碼

細胞

編輯
睇埋:神經細胞

神經細胞(neuron)可以帶有同傳遞資訊:一個由極大量嘅神經細胞組成,例如一個正常大人嘅腦據估計有成 860 億粒神經細胞咁多[10];一粒神經細胞喺接收到某啲特定嘅刺激嗰陣,會用微弱電流等嘅型式傳訊號,例如視網膜上面嗰一大柞感光細胞喺受刺激嗰時,會射訊號上個腦嘅視覺皮層(visual cortex)嗰度,而每種感光細胞都淨係會對某啲特定刺激有反應,所以每當個腦收到呢啲訊號嗰陣,就可以判斷對眼望到乜-「射緊訊號嘅得感應藍色光嘅感光細胞,對眼梗係望緊啲藍色嘅嘢喇」。神經編碼(neural coding)係神經科學一個子領域,專門研究解讀神經細胞帶同傳嘅資訊[11][12]

網絡

編輯
睇埋:神經網絡

想像有個由若干粒神經細胞組成嘅神經網絡(neural network)。輸入層(input layer)嗰啲細胞會對某啲外界刺激(例如係光或者)有啟動反應,隱藏層(hidden layer)收到輸入層細胞嘅訊號嗰時會啟動,而最後嗰浸輸出層(output layer)收到隱藏層細胞嘅訊號嗰時又會啟動。即係話是但搵粒細胞,佢嘅啟動程度   可以用以下條式計[13]

 
  係粒細胞第   個輸入嘅數值,
  係粒細胞第   個輸入對粒細胞   嘅影響力(權重值;weight)。

而家假想輸出層有 5 粒細胞,每粒都有一個門檻值(threshold),如果嗰粒細胞個   超越門檻值,佢嘅數值會變成 1,否則佢嘅數值會變成 0(睇埋數碼訊號),所以喺是但一個時間點,個神經網絡嘅輸出可以用 5 個 1 同 0 嚟表達-「11000」、「10010」、「10101」等分別代表唔同款嘅輸出。如果柞   數值恆定不變,噉輸入同輸出之間會成某啲特定嘅關係,例如每次輸入層數值等如某個數,輸出都會等如「11000」。呢段關係反應咗個神經網絡對輸入同輸出嘅知識[13],假想家陣輸入層有 4 粒細胞,而個網絡柞   經已調整好,令輸入同輸出成以下關係:

輸入 輸出
00 00 00000
00 01 00000
01 00 00000
01 01 00001
10 01 00010
10 10 00100

想像輸入係兩個用二進制表達嘅數,而輸出係一個用二進制表達嘅數,將上述數字變成十進制嘅話:

輸入 輸出
0 0 0
0 1 0
1 0 0
1 1 1
2 1 2
2 2 4

呢個輸入同輸出關係表示,個神經網絡曉計(兩個輸入都喺 2 以內嘅)乘數-係一個將有關乘法嘅知識「表示」咗出嚟嘅網絡。同一道理,假想有個神經網絡,有數以百億計嘅細胞(好似係人腦),佢會識處理好複雜嘅輸入,俾好複雜嘅輸出,而且仲能夠運算好複雜嘅輸入輸出關係[14][15]。睇埋人工神經網絡

處理過程

編輯
睇埋:學習機械學習

普遍同複雜

編輯
  • 普遍化(generalization)指一個智能系統對唔同嘅輸入俾同一個輸出:例如家陣有兩個唔同嘅輸入-「一隻身上有七條間條嘅老虎」同「一隻身上有八條間條嘅老虎」,而有一個人感知到;對個人嚟講,喺兩個情況下,最理想嘅輸出都係「識、走佬」,而如果有個人類見到前者識走佬,但見到後者唔識嘅話,佢好有可能生存唔到;「普遍」化指緊就係將對一個刺激   嘅知識應用落去第啲同   有啲相似(但唔完全一樣)嘅刺激嗰度-而「概念」喺定義上就係指普遍化所產生嘅知識表示,個人睇咗一柞(隻隻個樣都有啲唔同嘅)老虎之後心靈當中有咗一個「老虎」嘅概念。普遍化嘅能力對於知識系統嚟講好重要[16]
  • 複雜化(orthogonalization)指一個智能系統對唔同嘅輸入俾唔同輸出:假想頭先見親老虎都識走佬嗰個人,佢從來未見過(貓一般對人唔危險),跟住有次佢見到貓,因為貓同老虎外形上有某啲相似嘅地方,所以佢見到隻貓就驚同走佬;但打後佢對貓嘅體驗多咗,發覺貓同危險之間並冇正統計相關(貓同危險好少可一齊出現),於是佢就學識「見到老虎要走佬,但見到貓唔使」-先前會引起同一個輸出嘅刺激,變成會引起唔同輸出,呢個過程就係所謂嘅複雜化[16]。普遍化同複雜化之間嘅平衡係有智能行為嘅基礎[16]
德國狼狗(左)同哈士奇(右);一個人俾隻德國狼狗咬過,學識對德國狼狗要有「」嘅反應,如果佢將佢嘅知識普遍化到「所有嘅」,佢對哈士奇都會有驚嘅反應。

聚類分析

編輯
 
聚類分析嘅圖解;每一點代表一個個案,每個個案喺用 X 軸同 Y 軸分別代表嗰兩個變數上都各有其數值。
内文:聚類分析

聚類分析(cluster analysis)係一種常用嚟教智能系統學識做適當知識表示嘅方法[17]。假想而家有若干個個案,每個個案都係兩個變數    上有個數值,再用以下個演算法處理吓柞個案嘅數據[18]

  手上有 N 個個案每個個案俾返個標籤某個特定嘅000011100...規律
  將啲個案冚唪唥攞喺 C 呢個聚類入面

  直至 size(C)C 入面嘅個案數量 = 1 為止一路做
    將淨低嘅個案逐對逐對睇計每對個案之間嘅距離 X  Y 上差幾遠);
    搵出最接近嗰兩個個案設做 c1  c2
     c1  c2 加入 c3 入面c3 係一個包含咗 c1  c2 在內嘅聚類
     c3 加入去 C 入面
     c1  c2  C 嗰度攞走

如果個數據庫當中有 8 個個案,上述段演算法會俾類似以下噉嘅知識表示[18]

  C = 
    [[[[case_1, case_8], case_2], case_6], [[[case_3, case_4], case_5], case_7]]

假如柞個案真係有得清楚噉分做兩個聚類嘅話,噉呢個演算法嘅運算過程之中,應該臨尾會出咗兩個   ,跟住    喺最後嗰步變成一體。聚類分析能夠攞一柞輸入,再俾「將柞個案分做若干類」嘅輸出-所以上述個演算法喺人工智能上可以用嚟模擬人類「睇過一柞物體之後,自動噉喺心目中將柞物體分類」嘅心智過程-由數據嗰度產生「見過嘅物件可以分做邊幾類」嘅知識表示,並且喺下次再撞到個案嗰時,用手上呢個知識表示判斷「呢件物件係乜」[18]

主成份分析

編輯
 
主成分分析嘅圖解;幅圖每一點代表一個個案,兩個箭咀代表兩個成份,長啲嗰個箭咀係比較重要嗰個成份。

主成份分析(principal component analysis,PCA)係另一種常用嚟整知識表示嘅分析法。想像而家又係有柞個案,佢哋每個喺兩個變數上都有其數值(睇附圖),跟住可以畫兩條線(附圖嗰兩個箭咀),兩條線分別都可以用一條包含    嘅算式表達,當中由圖當中可以清楚睇到,長箭咀嗰條線成功噉捕捉更多嘅變異數(variance)-亦即係話長箭咀嗰條線所代表嗰個「成份」(component)比較能夠用嚟分辨啲個案,所以比較「重要」[19]

舉個例說明,假想有柞新數據,啲個案係一隻隻動物,而每個個案一係就係隻老鼠,一係就係隻大笨象  係隻動物嘅大細,而   係隻動物嘅色水;假設柞數據做咗標準化,用同一樣嘅單位表達   ,喺呢柞數據入面,沿「色水」嘅變異數好細(個箭咀會好短),因為老鼠同大笨象都係灰灰啡啡噉色嘅動物,但沿「大細」嘅變異數就會大得好交關(個箭咀會好長),因為老鼠同大笨象喺體型上差好遠-用 PCA 嘅話,會得出「用   作為重心線做分辨有用啲」嘅結果- PCA 幫到手由一柞數據嗰度,產生出「邊個成份喺用嚟分辨個案上比較有用」嘅資訊,而個智能系統可以用呢個資訊做一個知識表示,攞個知識嚟對將來撞到嘅個案作出判斷[18]

喺最簡單嗰種情況下,一個做主成份分析嘅演算法大致上係噉[19]

  1. 攞數據;
  2. 畫條線出嚟,條線有條式,而條式包含數據當中有嘅變數
  3. 計出沿呢條線嘅變異數有幾多;
  4. 改變吓條線嘅參數(parameter);
  5. 再計出沿條新線嘅變異數有幾多;
  6. 一路做步驟 4 同 5,做嗮所有指定咗嘅可能性,最後俾具有最大變異數嗰條線做個演算法嘅輸出。

表示模型

編輯
 
一個語義網絡;每個空白圓圈代表一個節點,節點之間有連繫。
睇埋:黑盒

語義網絡

編輯
内文:語義網絡

語義網絡(semantic network)係知識表示常用嘅一種模型。一個基本嘅語義網絡有以下組成部份:個網絡有若干個節點(node),每個節點代表一個概念,而節點之間會有一啲連繫,兩個概念之間嘅連繫表達佢哋之間嘅關係;語義網絡可以用嚟模擬促發效應(priming effect)-喺是但一個時間點,每個節點都有個數代表佢嘅「啟動程度」(activation level),而一個節點啟動會令佢掕住嘅節點跟住啟動,同佢連繫愈強嘅節點就會掕住啟動得愈勁;而呢點似十足人嘅促發效應-人都係噉,一講起一樣嘢嗰陣傾向諗起啲同嗰樣嘢相關嘅嘢,例如實驗就噉做過,實驗者叫受試者喺聽到個「」字嗰陣有咁快得咁快撳個掣,而喺聽「狼」打前聽到(例如)個「」字嘅受試者對「狼」嘅反應會變快[20][21]

語義網絡可以用機械學習方法產生,例如一個人工智能程式接收咗一柞動物嘅影像,用聚類分析將柞影像分做若干個物種,程式內部每個物種俾個名佢,然後再按聚類分析嘅結果(例:「貓同老虎明顯係兩種動物,但兩者彼此之間嘅差距明顯細過佢哋同狼嘅差距,所以貓同老虎都屬貓科」)產生一個語義網絡(例:貓同老虎都各有一條線「屬於」掕去「貓科」嗰度)[22][23]

貝葉斯知識

編輯

有認知科學家主張,人同第啲動物嘅心靈係按貝葉斯定理(Bayes' theorem)學習判斷世界嘅系統。假想有兩件事件,     發生嘅機會率   發生嘅機會率,根據貝葉斯定理, (已知   發生咗,  發生嘅機會率)可以用以下呢條式計[24][25]

 

舉個例說明,有一個地區,個地區嘅人當中有 0.1% 嘅都有一隻病( );而家有個新測試(「測試出陽性反應」係  ),而打前嘅醫學研究顯示,如果個病人真係有嗰隻病,個測試有 90% 機會呈陽性反應( ),但就算個病人冇嗰隻病( ),個測試都有 9% 嘅機會呈陽性反應(   大約係 0.1)。家吓有個住喺呢個地區嘅人去做咗個測試,出咗陽性結果,用貝葉斯定理嚟計嘅話,佢真係有嗰種病嘅機會率( )大約係 10% (個測試唔多靠得住)[24]

根據主張貝葉斯腦假說(Bayesian brain hypothesis)嘅認知科學家,一個心靈會透過自己過去嘅經驗,計算一大柞   嘅數值,以此表示自己對「世界係點運作」嘅認識,而呢個知識表示就係所謂嘅「對世界嘅內部模型」(internal model of the world)[24]:想像一個心靈,佢內部會記住若干份經驗(有    呢啲資訊),而佢可以按過去嘅經驗計返  -例如係喺一個實驗裏面,研究者定時定候電隻動物,而隻動物冇能力迴避;隻動物記得 10 次俾人電嘅事件( ),而喺某幾次事件當中佢有嘗試避開個痛楚( ),喺某幾次入面佢冇( ),但次次都一樣遭俾人電;佢個腦計咗之後會發現,自己行動咗跟住受痛楚嘅機率( )同自己唔行動而受痛楚嘅機率( )相約, -即係一個「我作唔作出行動結果都係會受痛楚」嘅知識表示,令佢進入「發現自己好無助」嘅狀態[26]

第啲模型

編輯

... 等等。

本體工程

編輯
 
一個描述相關知識嘅本體
内文:本體工程

本體工程(ontology engineering)係電腦科學嘅一個子領域,研究點建造本體(ontology):定義上,一個本體係一柞概念嘅集合,會表明呢啲概念之間嘅啦掕,可以話係語義網絡嘅一種;本體嘅特徵係,佢啲概念要有明確講到出嚟嘅定義(相比之下,語義網絡可以用人工神經網絡等「計到正確答案、但講唔出口」嘅方法整)[31]。例:一個用嚟表示打機相關知識嘅本體噉,會包含「電子遊戲」、「遊戲機」同「遊戲設計」等嘅概念嘅定義,跟住仲會有一柞連結,表明概念之間嘅啦掕,例如「遊戲機」會有條拎(「用嚟玩」)連去「電子遊戲」嗰度,而「遊戲設計」又會有條拎(「做嚟整」)連落「電子遊戲」嗰度-形成一個描述打機相關概念同呢啲概念之間嘅關係嘅本體(所以本體係知識表示嘅一種)[32][33][34]

本體工程對於製作人工智能嚟講相當有用,最幫到手教電腦自動推理(automated reasoning)嘅工作-一個程式有咗一個本體,就會有能力答「貓屬於貓科,貓科屬於哺乳類,噉貓係咪屬於哺乳類?」等嘅問題,而答呢類問題嘅能力正正係智能嘅一個重要指標[3][35][36]

以下呢段係一段用網絡本體語言(Web Ontology Language;一款專用嚟整本體嘅程式語言)表達嘅一個本體,用嚟描述一啲有關意大利薄餅嘅知識[37]

Namespace(p = <http://example.com/pizzas.owl#>)
Ontology( <http://example.com/pizzas.owl#>
   Class(p:Pizza partial
     restriction(p:hasBase someValuesFrom(p:PizzaBase)))
   DisjointClasses(p:Pizza p:PizzaBase)
   Class(p:NonVegetarianPizza complete
     intersectionOf(p:Pizza complementOf(p:VegetarianPizza)))
   ObjectProperty(p:isIngredientOf Transitive
     inverseOf(p:hasIngredient))
)

舉個例子說明,呢段碼 ObjectProperty 嗰行會同個程式指明個本體入面某啲物件嘅特性,呢行指令講咗幾樣嘢:首先,「係某某嘅原料」(isIngredientOf)呢個關係係有遞移性嘅(Transitive)-即係教部電腦,如果 A 係 B 嘅原料而 B 係 C 嘅原料,噉佢可以推斷 A 係 C 嘅原料;呢行指令仲表明咗「係某某嘅原料」係「原料包含咗」(hasIngredient)嘅反轉(inverse)-所以運用呢個本體嘅人工智能程式可以做(例如)「夏威夷薄餅原料包含咗菠蘿,所以菠蘿係夏威夷薄餅嘅原料」嘅推理[37][38]

本體同相關技術有唔少應用價值,一個簡單嘅例子係攞嚟喺搜尋器嗰度俾建議:當一個用家搜尋某個關鍵字嗰陣,個搜尋器程式可以用一個事先學習(分析咗舊有嘅「啲人耖完呢篇文之後,傾向耖乜文」數據)形成嘅語義網絡,估計個用家跟住最有可能會想搜尋啲乜,然後將最有可能會想搜尋嘅嘢列做「建議」[39][40]

睇埋

編輯

文獻

編輯
  • Ronald J. Brachman; What IS-A is and isn't. An Analysis of Taxonomic Links in Semantic Networks; IEEE Computer, 16 (10); October 1983
  • Ronald J. Brachman, Hector J. Levesque Knowledge Representation and Reasoning, Morgan Kaufmann, 2004 ISBN 978-1-55860-932-7
  • Ronald J. Brachman, Hector J. Levesque (eds) Readings in Knowledge Representation, Morgan Kaufmann, 1985, ISBN 0-934613-01-X
  • Chein, M., Mugnier, M.-L. (2009), Graph-based Knowledge Representation: Computational Foundations of Conceptual Graphs, Springer, 2009,ISBN 978-1-84800-285-2.
  • Randall Davis, Howard Shrobe, and Peter Szolovits; What Is a Knowledge Representation? AI Magazine, 14(1):17-33,1993
  • Ronald Fagin, Joseph Y. Halpern, Yoram Moses, Moshe Y. Vardi Reasoning About Knowledge, MIT Press, 1995, ISBN 0-262-06162-7
  • Jean-Luc Hainaut, Jean-Marc Hick, Vincent Englebert, Jean Henrard, Didier Roland: Understanding Implementations of IS-A Relations. ER 1996: 42-57
  • Hermann Helbig: Knowledge Representation and the Semantics of Natural Language, Springer, Berlin, Heidelberg, New York 2006
  • Frank van Harmelen, Vladimir Lifschitz and Bruce Porter: Handbook of Knowledge Representation 2007.
  • Arthur B. Markman: Knowledge Representation Lawrence Erlbaum Associates, 1998
  • John F. Sowa: Knowledge Representation: Logical, Philosophical, and Computational Foundations. Brooks/Cole: New York, 2000
  • Adrian Walker, Michael McCord, John F. Sowa, and Walter G. Wilson: Knowledge Systems and Prolog, Second Edition, Addison-Wesley, 1990
  • Mary-Anne Williams and Hans Rott: "Frontiers in Belief Revision, Kluwer", 2001.
  1. Brachman, Ron (1985). "Introduction". In Ronald Brachman and Hector J. Levesque (ed.). Readings in Knowledge Representation. Morgan Kaufmann. pp. XVI–XVII.
  2. Roger Schank; Robert Abelson (1977). Scripts, Plans, Goals, and Understanding: An Inquiry Into Human Knowledge Structures. Lawrence Erlbaum Associates, Inc.
  3. 3.0 3.1 Davis, Randall; Howard Shrobe; Peter Szolovits (Spring 1993). "What Is a Knowledge Representation?". AI Magazine. 14 (1): 17–33.
  4. Hoskins, J. C., & Himmelblau, D. M. (1988). Artificial neural network models of knowledge representation in chemical engineering. Computers & Chemical Engineering, 12(9-10), 881-890.
  5. John F. Sowa: Knowledge Representation: Logical, Philosophical, and Computational Foundations. Brooks/Cole: New York, 2000.
  6. Socher, R., Chen, D., Manning, C. D., & Ng, A. (2013). Reasoning with neural tensor networks for knowledge base completion. In Advances in neural information processing systems (pp. 926-934).
  7. Duda, Richard O.; Hart, Peter Elliot; Stork, David G. (2001). Pattern classification (2 ed.). Wiley.
  8. Omerovic, S., MILUTINOVIC, V., & TOMAZIC, S. (2001). Concepts, Ontologies, and Knowledge Representation.
  9. Tickle, A. B., Andrews, R., Golea, M., & Diederich, J. (1998). The truth will come to light: Directions and challenges in extracting the knowledge embedded within trained artificial neural networks. IEEE Transactions on Neural Networks, 9(6), 1057-1068.
  10. How many neurons make a human brain? Billions fewer than we thought.
  11. Thorpe, S.J. (1990). "Spike arrival times: A highly efficient coding scheme for neural networks". In Eckmiller, R.; Hartmann, G.; Hauske, G. Parallel processing in neural systems and computers. North-Holland. pp. 91–94.
  12. Zhang, H.; Chen, G.; Kuang, H.; Tsien, J.Z. (Nov 2013). "Mapping and deciphering neural codes of NMDA receptor-dependent fear memory engrams in the hippocampus". PLOS ONE. 8 (11): e79454.
  13. 13.0 13.1 Bishop, Christopher (1995). Neural networks for pattern recognition. Clarendon Press.
  14. Boger, Z., & Guterman, H. (1997, October). Knowledge extraction from artificial neural network models. In 1997 IEEE International Conference on Systems, Man, and Cybernetics. Computational Cybernetics and Simulation (Vol. 4, pp. 3030-3035). IEEE.
  15. Patterson, K., Nestor, P. J., & Rogers, T. T. (2007). Where do you know what you know? The representation of semantic knowledge in the human brain. Nature Reviews Neuroscience, 8(12), 976.
  16. 16.0 16.1 16.2 McMaster, R. B., & Mc Master, R. B. (1991). Conceptual frameworks for geographical knowledge. In Map Generalization: Making Decisions for Knowledge Representation (pp. 21-39). Longman's Inc.
  17. Jordan, Michael I.; Bishop, Christopher M. (2004). "Neural Networks". In Allen B. Tucker (ed.). Computer Science Handbook, Second Edition (Section VII: Intelligent Systems). Boca Raton, Florida: Chapman & Hall/CRC Press LLC.
  18. 18.0 18.1 18.2 18.3 Knowledge Representation in Neural Networks 互聯網檔案館歸檔,歸檔日期2019年3月2號,. (PDF).
  19. 19.0 19.1 Jolliffe, I. T. (1986). Principal Component Analysis. Springer Series in Statistics. Springer-Verlag.
  20. Allan M. Collins; Elizabeth F. Loftus (1975). "A spreading-activation theory of semantic processing". Psychological Review. 82 (6): 407–428.
  21. Jang, H. Y., & Barnett, G. A. (1994). Cultural differences in organizational communication: A semantic network analysis 1. Bulletin of Sociological Methodology/Bulletin de Méthodologie Sociologique, 44(1), 31-59.
  22. Quillian, M. R. (1968). Semantic memory. Semantic information processing, 227–270.
  23. Knublauch, Holger; Oberle, Daniel; Tetlow, Phil; Wallace, Evan (2006-03-09). "A Semantic Web Primer for Object-Oriented Software Developers". W3C.
  24. 24.0 24.1 24.2 The Bayesian Brain Hypothesis. Towards Data Science.
  25. Delalleau, O., Contal, E., Thibodeau-Laufer, E., Ferrari, R. C., Bengio, Y., & Zhang, F. (2012). Beyond skill rating: Advanced matchmaking in ghost recon online. IEEE Transactions on Computational Intelligence and AI in Games, 4(3), 167-177.
  26. Lieder, F., Goodman, N. D., & Huys, Q. J. (2013). Learned helplessness and generalization. In Proceedings of the annual meeting of the cognitive science society (Vol. 35, No. 35).
  27. Linear Regression with example. Towards Data Science.
  28. Gardner, M. W., & Dorling, S. R. (1998). Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences. Atmospheric environment, 32(14-15), 2627-2636.
  29. Decision Trees in Machine Learning. Towards Data Science.
  30. Cortes, Corinna; Vapnik, Vladimir N. (1995). "Support-vector networks". Machine Learning. 20 (3): 273–297.
  31. Semantic Networks.
  32. Mizoguchi, R., & Ikeda, M. (1998). Towards ontology engineering. Journal-Japanese Society for Artificial Intelligence, 13, 9-10.
  33. Russell, Stuart J.; Norvig, Peter (2010), Artificial Intelligence: A Modern Approach (3rd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-604259-7, p. 437 - 439.
  34. Maedche, A., & Staab, S. (2001). Ontology learning for the semantic web. IEEE Intelligent systems, 16(2), 72-79.
  35. Hayes P, Naive physics I: Ontology for liquids. University of Essex report, 1978, Essex, UK.
  36. Hayes-Roth, Frederick; Donald Waterman; Douglas Lenat (1983). Building Expert Systems. Addison-Wesley. pp. 6–7.
  37. 37.0 37.1 OWL Example with RDF Graph. Ontologies and Semantic Web.
  38. López, M. F., Gómez-Pérez, A., Sierra, J. P., & Sierra, A. P. (1999). Building a chemical ontology using methontology and the ontology design environment. IEEE Intelligent Systems and their applications, 14(1), 37-46.
  39. Finkelstein, L., Gabrilovich, E., Matias, Y., Rivlin, E., Solan, Z., Wolfman, G., & Ruppin, E. (2002). Placing search in context: The concept revisited. ACM Transactions on information systems, 20(1), 116-131.
  40. Berners-Lee, Tim; James Hendler; Ora Lassila (May 17, 2001). "The Semantic Web – A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities". Scientific American. 284 (5): 34–43.