屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
樓主有樓主講,其他巴打討論下有咩問題
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
樓主有樓主講,其他巴打討論下有咩問題
問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?
其實neural network好單純math driven, 我讀果陣都唔知個prof up乜鳩
連researcher都形容係black box
反而我覺得reinforcement learning會易講d 起碼有實例講下
MCT我就唔太識 MC method就聽過下
其他都好食數底 一講就寫到水蛇春果時就會too long didnt read
其實neural network好單純math driven, 我讀果陣都唔知個prof up乜鳩
連researcher都形容係black box
反而我覺得reinforcement learning會易講d 起碼有實例講下
MCT我就唔太識 MC method就聽過下
其他都好食數底 一講就寫到水蛇春果時就會too long didnt read
design其實都要諗好多野,但train and test就真係black box
所以我覺得介紹multilayer perceptron係最簡單易明
數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving
人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....
underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization
如果話人黎講少sample都高accuracy因為我地不自覺間收集到好左好多數據。咁即係話人類高accuracy 係都係因為多sample, 但連deepmind 而家做one-shot都唔洗多sample 喎。咁即係話多sample唔係accuracy高嘅必然條件,係同個architecture有關。仲有我唔係話CNN分唔到狗嘅品種,我係話train左黎識別人面嘅唔可以同時用黎分辨狗嘅品種,ANN而家transfer learning仲係好差。呢個係architectural 層次問題。
其實我邊度有講過graphical model 唔係AI 我由頭到尾只係講ANN唔可以完全解釋人腦,intelligence system有好多種,ANN只係其中一種。ANN係一個數學模型,唔係描述人腦嘅模型。
你所謂cluster of nodes理論有一個致命問題,就係假設左node同node之間係冇重疊的。但人腦就正正相反,同一個neuron係唔同task底下都有可能被activate。而且如果每個task都有一個cluster, 咁係咪用手拎杯一個cluster, 拎碟一個cluster, 拎波又另一個cluster呢,世事何其多,要幾多個cluster先夠...而train新cluster又要幾多時間?學識拎杯嘅人,亦會好快學識拎茶壺,咁又點理解呢?再者,大腦構造係可以靈活改變。盲人visual cortex可以repurpose做聽覺,觸覺,visual同聽覺根本需要唔同architecture, 前者CNN後者RNN,點解同一個node可以變得咁快?
Over-generalize 同複雜度唔夠其實咪同一樣野?咁都可以話下人諗野太practical... 其實我地都係純粹學術討論,點解最後都要加句人身攻擊呢...
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
樓主有樓主講,其他巴打討論下有咩問題
問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
樓主有樓主講,其他巴打討論下有咩問題
問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?
無計架, 講D 簡單既/abstract version 就會有人跳出黎用terms/ PHD 黎撻你話你ON9 又俾膠咁
對住呢D人只能越講越technical, 你唔理呢班人又驚初學者入黎見到呢D 留言就以為呢個POST真係流既而出番去
你見我都絕大部份都補番個日常生活例子黎照顧下初學者, 不過果堆PHD就又會左搵右搵呢D 例子係details 上有乜不足...
初學者就等下樓主啦,暫時黎講我見樓主講既都適合初學者程度而且無乜致命既錯處
數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving
人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....
underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization
如果話人黎講少sample都高accuracy因為我地不自覺間收集到好左好多數據。咁即係話人類高accuracy 係都係因為多sample, 但連deepmind 而家做one-shot都唔洗多sample 喎。咁即係話多sample唔係accuracy高嘅必然條件,係同個architecture有關。仲有我唔係話CNN分唔到狗嘅品種,我係話train左黎識別人面嘅唔可以同時用黎分辨狗嘅品種,ANN而家transfer learning仲係好差。呢個係architectural 層次問題。
其實我邊度有講過graphical model 唔係AI 我由頭到尾只係講ANN唔可以完全解釋人腦,intelligence system有好多種,ANN只係其中一種。ANN係一個數學模型,唔係描述人腦嘅模型。
你所謂cluster of nodes理論有一個致命問題,就係假設左node同node之間係冇重疊的。但人腦就正正相反,同一個neuron係唔同task底下都有可能被activate。而且如果每個task都有一個cluster, 咁係咪用手拎杯一個cluster, 拎碟一個cluster, 拎波又另一個cluster呢,世事何其多,要幾多個cluster先夠...而train新cluster又要幾多時間?學識拎杯嘅人,亦會好快學識拎茶壺,咁又點理解呢?再者,大腦構造係可以靈活改變。盲人visual cortex可以repurpose做聽覺,觸覺,visual同聽覺根本需要唔同architecture, 前者CNN後者RNN,點解同一個node可以變得咁快?
Over-generalize 同複雜度唔夠其實咪同一樣野?咁都可以話下人諗野太practical... 其實我地都係純粹學術討論,點解最後都要加句人身攻擊呢...
屌
又話簡單了解
愈講愈唔知你地up 乜
成班係到鬥反駁,show quali
寫野又無structure
入撚錯post on99
突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
講左由淺入深去解釋原理
一黎就跳左去做reserach level
Aggr
一啲都唔layman
平時喺學術界拗嘅嘢,喺度拗多次有乜謂
研究人員應該幫手講下基本概念,AI而家發展情況,可見將來會發展成點,做到乜嘢,有乜限制,人類應該點自處
簡單講下CNN結構,主要由幾款layer組成
1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)
以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行