CNN 我就唔熟
不過ANN 以前都玩過下其實係好難做得好嘅嘢嚟
人工神經網絡嘅設計重點至少有幾個
一係網絡嘅結構
有幾多個神經元有幾多個節點分幾個層級
每個層級又點分配
唔係愈深愈廣就一定好
結構不當會出然過度學習變成只懂得做 mapping 嘅數據庫
二係神經元入面嘅方程
CNN 從名嚟睇我估係用convolution formula 去做比對
但因應唔同需可能要放唔同方程入去
唔係所有事情都可以有效地用比對去學習
三係學習嘅數據同分析點
數據必需龐大而有代表性
如果參考一個傻人嘅數據出嚟嘅 AI 都會傻
好似人工對話
開發嘅人一生加埋講嘅句子可能都唔夠教
但倚賴向普通受眾學又會學埋啲錯嘢衰嘢返嚟
講到呢度你就會發覺真人嘅學習能力其實仍然高好多好多
但有一啲嘢我地只知解決方向但唔知實際辦法同答案嘅時候 AI 就非常幫得手
我試過用 Genetic algorithm 去解 travelling salesman problem 係極快極輕易就得到優質答案
用人腦去諗諗到頭到爆都唔掂
CNN 我就唔熟
不過ANN 以前都玩過下其實係好難做得好嘅嘢嚟
人工神經網絡嘅設計重點至少有幾個
一係網絡嘅結構
有幾多個神經元有幾多個節點分幾個層級
每個層級又點分配
唔係愈深愈廣就一定好
結構不當會出然過度學習變成只懂得做 mapping 嘅數據庫
二係神經元入面嘅方程
CNN 從名嚟睇我估係用convolution formula 去做比對
但因應唔同需可能要放唔同方程入去
唔係所有事情都可以有效地用比對去學習
三係學習嘅數據同分析點
數據必需龐大而有代表性
如果參考一個傻人嘅數據出嚟嘅 AI 都會傻
好似人工對話
開發嘅人一生加埋講嘅句子可能都唔夠教
但倚賴向普通受眾學又會學埋啲錯嘢衰嘢返嚟
講到呢度你就會發覺真人嘅學習能力其實仍然高好多好多
但有一啲嘢我地只知解決方向但唔知實際辦法同答案嘅時候 AI 就非常幫得手
我試過用 Genetic algorithm 去解 travelling salesman problem 係極快極輕易就得到優質答案
用人腦去諗諗到頭到爆都唔掂
CNN 我就唔熟
不過ANN 以前都玩過下其實係好難做得好嘅嘢嚟
人工神經網絡嘅設計重點至少有幾個
一係網絡嘅結構
有幾多個神經元有幾多個節點分幾個層級
每個層級又點分配
唔係愈深愈廣就一定好
結構不當會出然過度學習變成只懂得做 mapping 嘅數據庫
二係神經元入面嘅方程
CNN 從名嚟睇我估係用convolution formula 去做比對
但因應唔同需可能要放唔同方程入去
唔係所有事情都可以有效地用比對去學習
三係學習嘅數據同分析點
數據必需龐大而有代表性
如果參考一個傻人嘅數據出嚟嘅 AI 都會傻
好似人工對話
開發嘅人一生加埋講嘅句子可能都唔夠教
但倚賴向普通受眾學又會學埋啲錯嘢衰嘢返嚟
講到呢度你就會發覺真人嘅學習能力其實仍然高好多好多
但有一啲嘢我地只知解決方向但唔知實際辦法同答案嘅時候 AI 就非常幫得手
我試過用 Genetic algorithm 去解 travelling salesman problem 係極快極輕易就得到優質答案
用人腦去諗諗到頭到爆都唔掂
中文唔好,想問咩叫優質答案
數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving
人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....
underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization
簡單講其實即係 train 好多個唔同嘅network group埋一齊?而家都有啲類似做法。
如果話人腦係 underfitting 咁其實個原因係因為人腦即使得好少data都可以 generally apply去其他地方?其實唔係好明你嘅意思,可否解釋下?如果得好少data而去做一啲task,over generalization 似乎係必然結果?
數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving
人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....
underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization
簡單講其實即係 train 好多個唔同嘅network group埋一齊?而家都有啲類似做法。
如果話人腦係 underfitting 咁其實個原因係因為人腦即使得好少data都可以 generally apply去其他地方?其實唔係好明你嘅意思,可否解釋下?如果得好少data而去做一啲task,over generalization 似乎係必然結果?
係,你可以想像係首先有一個classification 既network 去分類問題,不過呢個classification 好大機會都唔係我地平時用開得0/1既classification, 而係weighted probability, 然後依照個weight 去相應地加權response 既rating, 最後依rating決定答案
例如一個簡化到極端既例子,“1+1”,首先要做既就係分類到式呢個係普通算式運算定係number theory,一般人會可能有0.9weight 分類去計數,即係答案係2, 而0.1 weight 係諗點prove1+1=2
然後個weighted 既答案又會feedback 番落去semantic analysis前文後理得出“2”先係“正確答案”
要做到人腦咁generalized 既problem solving 似乎係無可避免地 over generalized, 至少人類進化左幾千年都未解決到呢個問題
你見到某d 領域既天才其本上就係dna 選擇去特化果個領域既結果,而可惜地呢d 天才多數地係其他方面都有一d 缺陷
generalized/ accuracy 係specific problem 似乎係無辦法公存既
數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving
人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....
underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization
數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving
人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....
underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization
簡單講其實即係 train 好多個唔同嘅network group埋一齊?而家都有啲類似做法。
如果話人腦係 underfitting 咁其實個原因係因為人腦即使得好少data都可以 generally apply去其他地方?其實唔係好明你嘅意思,可否解釋下?如果得好少data而去做一啲task,over generalization 似乎係必然結果?
係,你可以想像係首先有一個classification 既network 去分類問題,不過呢個classification 好大機會都唔係我地平時用開得0/1既classification, 而係weighted probability, 然後依照個weight 去相應地加權response 既rating, 最後依rating決定答案
例如一個簡化到極端既例子,“1+1”,首先要做既就係分類到式呢個係普通算式運算定係number theory,一般人會可能有0.9weight 分類去計數,即係答案係2, 而0.1 weight 係諗點prove1+1=2
然後個weighted 既答案又會feedback 番落去semantic analysis前文後理得出“2”先係“正確答案”
要做到人腦咁generalized 既problem solving 似乎係無可避免地 over generalized, 至少人類進化左幾千年都未解決到呢個問題
你見到某d 領域既天才其本上就係dna 選擇去特化果個領域既結果,而可惜地呢d 天才多數地係其他方面都有一d 缺陷
generalized/ accuracy 係specific problem 似乎係無辦法公存既
我一直好想知點解non-linear化要用relu 同sigmoid, 點解做呢個過程會令fitting有效d
仲有人腦隨時有能力form新既neural pathway,老左又可以將某啲functions由frontal 轉去parietal
仲有一個人如果盲左,visual cortex會被轉去俾觸覺用,好癲 ....
仲有一樣我都覺得神奇既係手語activate既brain region同speech係極度相似
巴打讀neuro但又了解咁多neural network野
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
仲有人腦隨時有能力form新既neural pathway,老左又可以將某啲functions由frontal 轉去parietal
仲有一個人如果盲左,visual cortex會被轉去俾觸覺用,好癲 ....
仲有一樣我都覺得神奇既係手語activate既brain region同speech係極度相似
巴打讀neuro但又了解咁多neural network野
只係因為研究同neural coding有啲關係,所以都係成日同machine learning呀,information theory ar打交道...
想當年我岩岩開始做research時根本冇乜人會用ANN, 個個都覺得佢又慢又廢,估唔到而家時移世易
仲有人腦隨時有能力form新既neural pathway,老左又可以將某啲functions由frontal 轉去parietal
仲有一個人如果盲左,visual cortex會被轉去俾觸覺用,好癲 ....
仲有一樣我都覺得神奇既係手語activate既brain region同speech係極度相似
巴打讀neuro但又了解咁多neural network野
只係因為研究同neural coding有啲關係,所以都係成日同machine learning呀,information theory ar打交道...
想當年我岩岩開始做research時根本冇乜人會用ANN, 個個都覺得佢又慢又廢,估唔到而家時移世易
好多年前鐵路 auto pilot 好似已經係 ANN + fuzzy logic 咁做
又唔講得上又慢又廢
只係搞一舖嘢就只係識做一件事好多時都唔值得所以唔係咁多機會用