前者只係簡單既regression, machine learning一早已經做緊
而後者,其實都只係multiple of multilayer neural network, 將所有方面既知識串連埋一齊再得出答案
你會話,唔係喎,人不斷重覆諗同一個問題,會有時可以創新到方法,而ai 每次都會得出同一個答案。但其實只係人會每次都evaluate 自己個答案既滿意度再feedback 番去自己個neural network 到做training。 而machine learning 一般唔會咁做只係想個result controllable, 同埋無咁易俾d poison (有意/無意)data 影響,而留待下一次做batch training 先version upgrade
而且其實呢個係人既弱點,因為好易俾人洗腦,只要不斷重覆講一個大話一百次,一千次,人就會不知不覺間信左
人之所以好似好強大,創新力比ai 強係因為人真係有個非常大既neural network,每個cluster of nodes 都掌管唔同知識,但卻可以同時對所有input 作出反應,而且係每次input 都自動調整每個cluster of nodes 既weight
目前黎講machine learning 仲未有咁既computing power 去模擬呢樣野
或者咁講,其實可能已經有咁既computing power, 但一般由於效率比單一用途既machine learning低,暫時未有人倒足夠既錢落海去做呢樣野
其實見到google 搞cloud 就好明顯係想做呢樣野,因為佢想偷d 用家用剩既computation time 黎用, 成本基本上係cloud 既用家俾,但只要cloud 用家越黎越多,google 賺到既computing power 就越多
其實咁樣諗係將人腦睇得太簡單啦。
第一,neural network training其實係好唔efficient, 先唔講deep learning 要百萬sample,就算係一個普通MNIST dataset用普通multilayer perceptron, 都要backpropagate N 次先training到個network. 但人唔先睇一百萬張車嘅相都好易識別到玩具車,真車,漫畫車嘅分別。另一例子,就係語言,而家machine translation又係幾百萬字文本,但人呢?可能跟住本幾百頁嘅書學一兩年都可以明白大概。人類嘅智力唔係簡單嘅input-output mapping, 而係可以理解組成部份之間的闗係,並且加以再組合。有啲似GAN, 但當然比GAN強好多。人腦係parameter極高(無數synapse) 而資料相對極少的情況下,都可以唔overfit, 呢個先係佢勁嘅地方。同埋人腦係transfer learning 方面又係勁到離譜。deep learning 係data 少嘅情況下甚至比唔上一個簡單 linear discriminant analysis.
第二,究竟「創意」係咪一句error feedback就可以解釋晒係好有疑問。alphago 之以受到觸目並唔係單單因為棋力強,而係佢係某個程度上展現出「直覺」同「創意」。但呢種「創意」可唔可以應用係其它方尚係未知之數。例如,係冇明顯對錯作為feedback的情況下,佢可唔可以展現創意?「創意」並唔係純綷隨機,而係「意料之外,情理之中」。咁就必然包含一個evaluate function 去判斷output, 但對於不是非黑即白的結果,例如寫作,對話等等,AI仍然有好多改進空間。
第三,而家AI玩緊嘅,全部都係perfect information, deterministic game. 但如果結果係有隨機或者未知性呢?呢方面AI都係有侍進步。deepmind 想玩starcraft就係呢個原因。starcraft有隨機同埋未知性,圍棋冇。
最後我想講近來有一個唔係咁好嘅趨勢,就係好多人想用artificial neural network去理解人腦係點運作。當然ANN一開始係有少少借鍳人腦,但人腦運作其實比我地想像複雜好多,神經元嘅output 亦未必一定係簡單一個weighted sum. 佢亦都可以做spatial-temporal 嘅運算。我都唔去講記憶,情感,意識呢啲複雜野啦。事實上除左ANN, 仲有好多其它AI技術,例如graphical models, decision tree etc.,較果唔一定比deep learning差。 XGBoost就係用decision tree, 係kaggle 到贏到開巷。我個人就覺得graphical models 係比較接近人腦嘅方式,咁當然事實上人腦可能係咁同model都有啲都未定。