簡單了解AlphaGo 同今日既AI

394 回覆
615 Like 13 Dislike
2017-05-27 22:08:27

呢種層層classify嘅理論可以從實驗層面就可以證明唔係完全正確。例如一啲講求速度嘅運動,e.g. 乒乓球,羽毛球,劍擊etc .,運動員可以係極短時間內作出反應。依照層層classify嘅理論,見到一個乒乓波飛埋黎要作出反應要經過好多步,例如先要辨別到係一個乒乓波,分辨眼前係現實定電視形像,判斷自己係咪應該打佢,然後估算佢嘅位置同方向,估算自己手嘅位置同方向,計算出手嘅trajectory,判斷呢個trajectory係咪合理,計算各肌肉的用力的比例,然後打出去。如果層層classify,呢度每一個判斷都涉及極複雜的network,而neuron同neuron之間有synaptic delay,速度係上限的,計得黎個波一早就飛走左。但其實研究顯示,對一個task越純熟,大腦就越少activation。大腦會自動調節去specialize一個task, 唔係一定要層層去classify.

而天才都有好多種,全能型天才都有。達文西就工程畫畫樣樣精,愛因斯坦都好有音樂天份,亦唔見佢有咩其他明顯缺陷。人腦並唔係over-generalize,而係佢本身有個好靈活嘅架構,令到佢可以適應唔同嘅環境。世上有好多超乎常人嘅運動家,音樂家,數學家,呢啲都係人可以specialize嘅證明。有缺陷嘅天才好多只係因為佢地被報道得多,其實果啲缺陷唔係天才都一樣會有,亦有好多天才一生正正常常。因為就大概而論話人腦over-generalize未必太過武斷。


synaptic delay does not exist in electrotonic transmission. 所以你例子不成立
不過唔再講太technical 啦, 廢事班初學者睇到一舊舊

你要睇係真係天才定係後天努力既"天才"
假如個腦本身構造已經係特化左, 一定係幾歲就顯現到出黎,依呢D 基本上好大部份都係有缺陷
genius 同austim 係positive correlation 係已經Proof 左
而後天既天才, 佢地只係train 佢地既network train 得好好, 而唔係佢個network 本身就特化左
所以佢地其他能力普遍都同其他人相若
2017-05-27 22:09:54
2017-05-27 22:12:27

數據量問題其實我已經答左你, 人腦收集左好多數據而不自知, 而果D 數據正正就係人腦能夠加上少量supervised learning 既sample 之後就能夠得到高accuracy 既原因, 詳細你可以睇下One-shot learning 既相關資料
你講既分狗既品種, 依家CNN 係咪做唔到呢? 其實又唔係, 而且仲準過人, 不過事先你輸入既要過濾清晒一定全部都係狗, 人腦既強大之處係generalized problem solving

人腦你可以想像佢係chain of cluster of nodes.而每組cluster 所做既野都唔同, 呢野大把paper 講過,至於分到幾細就未有人知, 呢D 等科學家去研究
但佢地研究到之前我地係咪就唔能夠作出一D 大膽既假設呢?
點解你覺得bayesian brain/probabilistic graphical model 唔係AI 呢?
AI 點解唔可以係neural network of value evaluation nodes/cluster of nodes, 而個value evaluation method 點解要局限左係ANN/CNN, regression?bayesian brain/probabilistic graphical model, arithmetic equation一樣可以係其中一種value evaluation 既方法
而因為人腦既neural 數目實在係太多,其實佢係一次過chain 埋左classification, value evaluation, inference, prediction而且好可能係每樣都反覆咁做N 次,所以佢先可以咁generalized
AI 係咪做唔到呢?依家所有puzzle 都有齊, 之不過係有無咁多computing power 姐....

underfitting not necessary 係因為complexity 太低, 你諗野太practical,退後D 睇
underfitting 係因為對問題/答案over generalization


如果話人黎講少sample都高accuracy因為我地不自覺間收集到好左好多數據。咁即係話人類高accuracy 係都係因為多sample, 但連deepmind 而家做one-shot都唔洗多sample 喎。咁即係話多sample唔係accuracy高嘅必然條件,係同個architecture有關。仲有我唔係話CNN分唔到狗嘅品種,我係話train左黎識別人面嘅唔可以同時用黎分辨狗嘅品種,ANN而家transfer learning仲係好差。呢個係architectural 層次問題。

其實我邊度有講過graphical model 唔係AI 我由頭到尾只係講ANN唔可以完全解釋人腦,intelligence system有好多種,ANN只係其中一種。ANN係一個數學模型,唔係描述人腦嘅模型。

你所謂cluster of nodes理論有一個致命問題,就係假設左node同node之間係冇重疊的。但人腦就正正相反,同一個neuron係唔同task底下都有可能被activate。而且如果每個task都有一個cluster, 咁係咪用手拎杯一個cluster, 拎碟一個cluster, 拎波又另一個cluster呢,世事何其多,要幾多個cluster先夠...而train新cluster又要幾多時間?學識拎杯嘅人,亦會好快學識拎茶壺,咁又點理解呢?再者,大腦構造係可以靈活改變。盲人visual cortex可以repurpose做聽覺,觸覺,visual同聽覺根本需要唔同architecture, 前者CNN後者RNN,點解同一個node可以變得咁快?

Over-generalize 同複雜度唔夠其實咪同一樣野?咁都可以話下人諗野太practical... 其實我地都係純粹學術討論,點解最後都要加句人身攻擊呢...

唔洗理呢條友,根本呢度係俾大家開放討論,佢成日驚俾堆PhD串就係度拋書包,根本PhD係唔會咁樣,我地做真實學術討論都會尊重人地既觀點,唔會下下人身攻擊人地。根本佢就係捉住你講既一兩句然後好唔logical咁criticize。既然佢咁鍾意講就講晒佢,廢事俾人話晒命啦。

開放討論但係掉低舊膠and留個PHD 就走左去, 你D討論真係
2017-05-27 22:13:38
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野
2017-05-27 22:16:04
lm
2017-05-27 22:16:10

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

連登D 學術post係咁,入到黎就見到此post已完同咩收皮真係好撚on9,邊度錯又唔講, 大佬呀show quali 就咁打句此post已完唔會覺得你,只會覺得你on9

留名等睇你俾人屌你人身攻擊
2017-05-27 22:20:56
CNN 原理同你俾一大堆中文字個鬼佬去背但唔教佢點解差唔多,佢最後會歸納到"人"呢隻字有一捌同捺兩樣野,呢個寫法係"人"字,但唔會知背後意思
2017-05-27 22:21:51
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

巴打我記得你,你係香港定外國讀PG? 諗緊想出國讀書

香港讀完MPhil, Phd 唔諗住因為有份好的offer
2017-05-27 22:22:50
Lm
2017-05-27 22:28:10
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢
2017-05-27 22:36:48

呢一個course instructor係ImageNet既founder, 我剩係想show下佢最上面果個prediction

而ImageNet就係一個project講緊收左大量image同埋佢地相應既label, 再比ai作為一個learning resources (或者我地叫groundtruth(?), training data)

AI就會根據返自己predict出黎既result同training data對答案,錯曬就大改,唔岩少少就改少d,咁至於點定義「錯幾多」就係另一個數學問題啦

咁同埋你唔能夠確保你學既野(data)一定係岩,即係你做問卷調查都會有人鳩填啦,咁所以有一個叫learning rate去決定你每一次學野,改變你自己幾多,
learning rate高,意味住「左耳入右耳出」,即係你每學一個data就洗曬之前d野(有錯請指出 好似唔係講得幾好)
learning rate低,就慢工出細貨,真係真係會好慢

IT狗角度:
真心果句, CS field已經係最易google到答案 打d keyword真係一大堆ans,真係再唔明就睇youtube,想知多d就一定係用research既方法,whether你係phd定industry

至於數底,唯有自己睇多d linear algebra, 要知道成個whole picture就避唔開數

對文科人黎講 我諗得d visualization到既先易講得明
可惜既係neural network visualize左都冇乜用 所以先比人話係black box
2017-05-27 22:39:46

又話簡單了解
愈講愈唔知你地up 乜

成班係到鬥反駁,show quali
寫野又無structure

入撚錯post on99

突破盲腸
老實講我覺得一講到layer層面啲weights已經好難簡單了解

講左由淺入深去解釋原理
一黎就跳左去做reserach level

Aggr
一啲都唔layman
平時喺學術界拗嘅嘢,喺度拗多次有乜謂
研究人員應該幫手講下基本概念,AI而家發展情況,可見將來會發展成點,做到乜嘢,有乜限制,人類應該點自處


而家d人檢討緊點解決上面既error

少量雜訊(noise)就搞到ai認柒左

之前主流比較多都係object classification(字面解)

而家就開始多左generative model

即係講緊我同電腦講比張J圖我 要長腿大波

咁電腦就generate一d長腿大波妹既相比你
(而唔係係harddisk入面搵佢珍藏既j圖比你)

不過so far呢方面都未成熟 仲係好多一睇都知唔係路既j圖會出左黎

係咪因為電腦係逐粒pixel睇?但我記得好似有人整到電腦識得睇圖搵啲圓圈直線既形狀出嚟
加上google又好似整咗個你畫簡單線條公仔就識認係乜東東圖,係咪已經解決咗問題?

第二同第三行我諗太似樣

第一張我估係當左cell/microscopy image

唔係逐粒逐粒睇,會睇埋隔離d pixel,that's why there is convolution
2017-05-27 22:43:15
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?
2017-05-27 22:50:27

呢種層層classify嘅理論可以從實驗層面就可以證明唔係完全正確。例如一啲講求速度嘅運動,e.g. 乒乓球,羽毛球,劍擊etc .,運動員可以係極短時間內作出反應。依照層層classify嘅理論,見到一個乒乓波飛埋黎要作出反應要經過好多步,例如先要辨別到係一個乒乓波,分辨眼前係現實定電視形像,判斷自己係咪應該打佢,然後估算佢嘅位置同方向,估算自己手嘅位置同方向,計算出手嘅trajectory,判斷呢個trajectory係咪合理,計算各肌肉的用力的比例,然後打出去。如果層層classify,呢度每一個判斷都涉及極複雜的network,而neuron同neuron之間有synaptic delay,速度係上限的,計得黎個波一早就飛走左。但其實研究顯示,對一個task越純熟,大腦就越少activation。大腦會自動調節去specialize一個task, 唔係一定要層層去classify.

而天才都有好多種,全能型天才都有。達文西就工程畫畫樣樣精,愛因斯坦都好有音樂天份,亦唔見佢有咩其他明顯缺陷。人腦並唔係over-generalize,而係佢本身有個好靈活嘅架構,令到佢可以適應唔同嘅環境。世上有好多超乎常人嘅運動家,音樂家,數學家,呢啲都係人可以specialize嘅證明。有缺陷嘅天才好多只係因為佢地被報道得多,其實果啲缺陷唔係天才都一樣會有,亦有好多天才一生正正常常。因為就大概而論話人腦over-generalize未必太過武斷。


synaptic delay does not exist in electrotonic transmission. 所以你例子不成立
不過唔再講太technical 啦, 廢事班初學者睇到一舊舊

你要睇係真係天才定係後天努力既"天才"
假如個腦本身構造已經係特化左, 一定係幾歲就顯現到出黎,依呢D 基本上好大部份都係有缺陷
genius 同austim 係positive correlation 係已經Proof 左
而後天既天才, 佢地只係train 佢地既network train 得好好, 而唔係佢個network 本身就特化左
所以佢地其他能力普遍都同其他人相若

我都有諗過electrical synapse, 但electrical synapse係冇gain, 即係無辦法做複雜運算,佢主要係用黎synchronize一堆post-synaptic neurons. 人腦大部份都係chemical synapse.

好多神童都好正常喎,Mozart同Terence Tao 呢?其實autism中間天才好少,有研究指出大部份都有智力問題,只有3%係above average:
https://www.ncbi.nlm.nih.gov/pubmed/21272389

關於事實性的錯誤,我覺得自己有責任指出,唔想有人誤會。

To其他巴打:
我都知自己hijack左個post嫁啦,各位巴打對唔住!只係一時興起所以多口左。多有得罪唔好意思 繼續潛水做番CD-ROM...
2017-05-27 22:58:50
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易
2017-05-27 22:59:29
留名學野
2017-05-27 23:02:57
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易

聽過prof講有d情況反而係用返motion tracking黎做segmentation
2017-05-27 23:05:02
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易

聽過prof講有d情況反而係用返motion tracking黎做segmentation

optical flow segmentation? 聽過但未用過
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞