簡單了解AlphaGo 同今日既AI

394 回覆
615 Like 13 Dislike
2017-05-27 16:31:47

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解
2017-05-27 17:59:42
對IT人嚟呢啲可能簡單
對文科人嚟講呢就
2017-05-27 18:10:40
留名
2017-05-27 18:50:56

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level


樓主有樓主講,其他巴打討論下有咩問題
2017-05-27 19:04:42

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level


樓主有樓主講,其他巴打討論下有咩問題

問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?
2017-05-27 19:34:29

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level


樓主有樓主講,其他巴打討論下有咩問題

問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?

真係應該至少要用啲普通人睇得明o既字詞
唔係有興趣都睇到無癮

雖然內行人自己可以繼續傾
但多啲人一齊討論開心啲又有啟發多啲
2017-05-27 19:54:04
其實neural network好單純math driven, 我讀果陣都唔知個prof up乜鳩
連researcher都形容係black box

反而我覺得reinforcement learning會易講d 起碼有實例講下

MCT我就唔太識 MC method就聽過下

其他都好食數底 一講就寫到水蛇春果時就會too long didnt read
2017-05-27 20:09:17
其實neural network好單純math driven, 我讀果陣都唔知個prof up乜鳩
連researcher都形容係black box

反而我覺得reinforcement learning會易講d 起碼有實例講下

MCT我就唔太識 MC method就聽過下

其他都好食數底 一講就寫到水蛇春果時就會too long didnt read


design其實都要諗好多野,但train and test就真係black box

所以我覺得介紹multilayer perceptron係最簡單易明
2017-05-27 20:12:30
其實neural network好單純math driven, 我讀果陣都唔知個prof up乜鳩
連researcher都形容係black box

反而我覺得reinforcement learning會易講d 起碼有實例講下

MCT我就唔太識 MC method就聽過下

其他都好食數底 一講就寫到水蛇春果時就會too long didnt read


design其實都要諗好多野,但train and test就真係black box

所以我覺得介紹multilayer perceptron係最簡單易明

係呀 同埋我記tf有個網玩下mlp
2017-05-27 20:39:26
留名慢慢睇
2017-05-27 20:42:29
高汁
2017-05-27 21:05:46
http://playground.tensorflow.org/
大家可以鳩玩下
2017-05-27 21:30:27

數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving

人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....

underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization


如果話人黎講少sample都高accuracy因為我地不自覺間收集到好左好多數據。咁即係話人類高accuracy 係都係因為多sample, 但連deepmind 而家做one-shot都唔洗多sample 喎。咁即係話多sample唔係accuracy高嘅必然條件,係同個architecture有關。仲有我唔係話CNN分唔到狗嘅品種,我係話train左黎識別人面嘅唔可以同時用黎分辨狗嘅品種,ANN而家transfer learning仲係好差。呢個係architectural 層次問題。

其實我邊度有講過graphical model 唔係AI 我由頭到尾只係講ANN唔可以完全解釋人腦,intelligence system有好多種,ANN只係其中一種。ANN係一個數學模型,唔係描述人腦嘅模型。

你所謂cluster of nodes理論有一個致命問題,就係假設左node同node之間係冇重疊的。但人腦就正正相反,同一個neuron係唔同task底下都有可能被activate。而且如果每個task都有一個cluster, 咁係咪用手拎杯一個cluster, 拎碟一個cluster, 拎波又另一個cluster呢,世事何其多,要幾多個cluster先夠...而train新cluster又要幾多時間?學識拎杯嘅人,亦會好快學識拎茶壺,咁又點理解呢?再者,大腦構造係可以靈活改變。盲人visual cortex可以repurpose做聽覺,觸覺,visual同聽覺根本需要唔同architecture, 前者CNN後者RNN,點解同一個node可以變得咁快?

Over-generalize 同複雜度唔夠其實咪同一樣野?咁都可以話下人諗野太practical... 其實我地都係純粹學術討論,點解最後都要加句人身攻擊呢...

咁你都要覺得係人身攻擊
依家d 人到底有幾玻璃?
政治正確同大愛呢家野真係害人不淺
學術討論唔加埋點解覺得對方既想法有不足又點樣互相提點?如果只係大家輪流掉theory 出嚟
不如自己去睇paper仲efficient?
2017-05-27 21:41:23

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level


樓主有樓主講,其他巴打討論下有咩問題

問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?

無計架, 講D 簡單既/abstract version 就會有人跳出黎用terms/ PHD 黎撻你話你ON9 又俾膠咁
對住呢D人只能越講越technical, 你唔理呢班人又驚初學者入黎見到呢D 留言就以為呢個POST真係流既而出番去
你見我都絕大部份都補番個日常生活例子黎照顧下初學者, 不過果堆PHD就又會左搵右搵呢D 例子係details 上有乜不足...
初學者就等下樓主啦,暫時黎講我見樓主講既都適合初學者程度而且無乜致命既錯處
2017-05-27 21:43:05

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level

Aggr
一啲都唔layman
平時喺學術界拗嘅嘢,喺度拗多次有乜謂
研究人員應該幫手講下基本概念,AI而家發展情況,可見將來會發展成點,做到乜嘢,有乜限制,人類應該點自處
2017-05-27 21:50:10

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level

要講weight要先講matrix係乜來,再extend去tensor

inner product又可以點樣深入淺出呢

呢d係linear algebra 基本skills但要簡單去講真係唔易

convolution之前我都係一個post講過,CNN 呢樣野係CV入面好有效,但kernel, gradient呢類野又有排講
2017-05-27 21:55:39

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level


樓主有樓主講,其他巴打討論下有咩問題

問題而家題目嘅關鍵字係「簡單了解」
你喺度講一堆專業詞彙出來咁你叫啲初學者點睇得明
衰啲講句而家大部分人都係離題
你要深入討論就應該出去開多個post慢慢討論,唔好搞到個post啲內容咁難明
呢個post嘅內容應該要簡單易明先鼓勵到多啲人認識咩係AI
唔係學咩人叫簡單了解?

無計架, 講D 簡單既/abstract version 就會有人跳出黎用terms/ PHD 黎撻你話你ON9 又俾膠咁
對住呢D人只能越講越technical, 你唔理呢班人又驚初學者入黎見到呢D 留言就以為呢個POST真係流既而出番去
你見我都絕大部份都補番個日常生活例子黎照顧下初學者, 不過果堆PHD就又會左搵右搵呢D 例子係details 上有乜不足...
初學者就等下樓主啦,暫時黎講我見樓主講既都適合初學者程度而且無乜致命既錯處

但係而家係連樓主都比人屌唔夠layman
2017-05-27 21:59:50
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行
2017-05-27 22:01:08

數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving

人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....

underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization


如果話人黎講少sample都高accuracy因為我地不自覺間收集到好左好多數據。咁即係話人類高accuracy 係都係因為多sample, 但連deepmind 而家做one-shot都唔洗多sample 喎。咁即係話多sample唔係accuracy高嘅必然條件,係同個architecture有關。仲有我唔係話CNN分唔到狗嘅品種,我係話train左黎識別人面嘅唔可以同時用黎分辨狗嘅品種,ANN而家transfer learning仲係好差。呢個係architectural 層次問題。

其實我邊度有講過graphical model 唔係AI 我由頭到尾只係講ANN唔可以完全解釋人腦,intelligence system有好多種,ANN只係其中一種。ANN係一個數學模型,唔係描述人腦嘅模型。

你所謂cluster of nodes理論有一個致命問題,就係假設左node同node之間係冇重疊的。但人腦就正正相反,同一個neuron係唔同task底下都有可能被activate。而且如果每個task都有一個cluster, 咁係咪用手拎杯一個cluster, 拎碟一個cluster, 拎波又另一個cluster呢,世事何其多,要幾多個cluster先夠...而train新cluster又要幾多時間?學識拎杯嘅人,亦會好快學識拎茶壺,咁又點理解呢?再者,大腦構造係可以靈活改變。盲人visual cortex可以repurpose做聽覺,觸覺,visual同聽覺根本需要唔同architecture, 前者CNN後者RNN,點解同一個node可以變得咁快?

Over-generalize 同複雜度唔夠其實咪同一樣野?咁都可以話下人諗野太practical... 其實我地都係純粹學術討論,點解最後都要加句人身攻擊呢...

唔洗理呢條友,根本呢度係俾大家開放討論,佢成日驚俾堆PhD串就係度拋書包,根本PhD係唔會咁樣,我地做真實學術討論都會尊重人地既觀點,唔會下下人身攻擊人地。根本佢就係捉住你講既一兩句然後好唔logical咁criticize。既然佢咁鍾意講就講晒佢,廢事俾人話晒命啦。
2017-05-27 22:03:14
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處
2017-05-27 22:03:43

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level

Aggr
一啲都唔layman
平時喺學術界拗嘅嘢,喺度拗多次有乜謂
研究人員應該幫手講下基本概念,AI而家發展情況,可見將來會發展成點,做到乜嘢,有乜限制,人類應該點自處


而家d人檢討緊點解決上面既error

少量雜訊(noise)就搞到ai認柒左

之前主流比較多都係object classification(字面解)

而家就開始多左generative model

即係講緊我同電腦講比張J圖我 要長腿大波

咁電腦就generate一d長腿大波妹既相比你
(而唔係係harddisk入面搵佢珍藏既j圖比你)

不過so far呢方面都未成熟 仲係好多一睇都知唔係路既j圖會出左黎
2017-05-27 22:05:13
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞