太長,唔quote 無夢人
一。你會唔會太睇高左人腦呢?其實人腦好多時都好唔efficient,要分玩具車,真車,漫畫車係咪真係幾張相就得呢?你可以試下俾一個細佬仔去分,依家d 日日對住部iPad 既細佬除時分唔到現實同二次元,你作為一個成年人能夠輕易分辨到係因為你已經係過去睇過無數既真車,玩具車,漫畫車,而且唔止係咁,你仲睇過好多真船,玩具船,漫畫船,真實環境,玩具場境,漫畫背景,etc
你有非常多既feature 去分辨真,玩具,漫畫,而且仲係以年為單位既training data
人腦既強大之處係在於其實每次input 都係將五感所感受到既野同時輸入,而且仲會對前後場景同時作出分析,預估完先會對現在呢一刻既問題作出回答,所有種類既問題都係同一個neural network 作出回答。 唔知你有無試過突然聽唔到人地講野成句句子入面既某一個詞語,對方重覆幾次都仲係聽唔到,呢種情況特別容易發生係你唔熟悉既topic。因為人腦唔單單係聽果個詞語既音頻黎分析,重會跟對象,前文後理黎判斷。所以當對方講一個唔係你expect 範圍內既詞語你會突然理解不能(雖然果個詞語單獨黎講你係識既)
人腦其實係一個極典型under fitting 既例子,所以人腦對一d noise 極少甚至無noise 既問題 efficiency 係極低(e.g. 數學運算)
而人腦真正強大既係power efficiency, 用極少能量已經可以做到極大量計算
人腦同ai 各有好處,無乜必要去誇大人腦既強項
上面問學人巴打已經答過你數據量問題,我就唔再多講啦。即使退一萬步講,我真係睇過好多真,玩具,漫畫,但都唔代表我睇嘅係車相關嘅圖。咁即係話,人腦係transfer learning 好強。而家人面識別嘅ANN唔可以用黎分狗嘅品種,因為AI未做到好好嘅transfer learning. 呢樣野係AI 仍然需要一段時間研究。
而你所講嘅context sensitive 推論,其實就係bayesian brain. 用probablistic graphical model 可以簡單摸擬到,反而用ANN會好複雜。
而另外,underfitting 問題。可能我理解錯你講法啦,underfitting 係因為model複雜度低所以 accuracy 低,同數據本身noise多唔多,速度快唔快冇乜關係。overfit先同noise有關。一般人係鋼琴學彈小星星不出十五分鐘,佢可能只係睇過老師彈過一兩次,但結果可以係八成似。如果咁都叫underfit未必太誇張。
另外,就以數學推算為例,其實極多極複雜數學理論都係人腦推論出黎。人腦係arithmatics 唔夠電腦黎只係因為人腦係parallel computing, 唔夠電腦運轉得快,同埋人腦working memory有限,唔似電腦勁多memory 儲住啲intermediate results。
人腦唔單只係power efficient, 仲有驚人嘅transfer learning能力。呢啲唔單止network architecture 唔同,而係可能根本用緊唔用algorithm做野。例如neuron啲action potential 係digital, 但firing rate 又係analog. 人腦可能係一部 digital/analog 混算機。
我嘅立場唔係話電腦一定比唔上人腦,因為事實上alphago而家咪贏晒人類。我只係講,人腦比我地想像中複雜,唔係單用ANN就可以解釋晒。而人工智能而家亦唔係天下無敵,只係係某幾個領域做得比較好,離真正strong AI仲有好遠一條路。