簡單了解AlphaGo 同今日既AI

394 回覆
615 Like 13 Dislike
2017-05-27 23:08:39
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易

聽過prof講有d情況反而係用返motion tracking黎做segmentation

optical flow segmentation? 聽過但未用過

ultrasound motion tracking好難做 所以好似要reverse咁做
2017-05-27 23:10:20

開放討論但係掉低舊膠and留個PHD 就走左去, 你D討論真係

我邊有掉低舊膠呀,我話支持樓主你有冇見到呀?宜家係話自己讀PhD已經俾你屌鳩我晒命,心諗我有咩得罪你?我冇時間貢獻討論係我唔啱,但係上面都有一大堆巴打貢獻緊啦。我都未見過咁撚串既人係度教人。
2017-05-27 23:10:29
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易

聽過prof講有d情況反而係用返motion tracking黎做segmentation

optical flow segmentation? 聽過但未用過

ultrasound motion tracking好難做 所以好似要reverse咁做

US track blood flow?

你係中大orthopedics?
2017-05-27 23:12:29
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易

聽過prof講有d情況反而係用返motion tracking黎做segmentation

optical flow segmentation? 聽過但未用過

ultrasound motion tracking好難做 所以好似要reverse咁做

US track blood flow?

你係中大orthopedics?

2017-05-27 23:13:15
講d 唔講d 一次過出哂佢啦
2017-05-27 23:17:23
同傳統imaging AI 不同,algo designer唔使preset一堆image faeture去做fitting, CNN 可以自己搵到大堆image faeaure,並且比人類所能理解梗要抽象幾百倍,呢個就係CNN 的強大之處

講 image processing 我又可以撘少少咀

其實就算e+ 大部分圖像識別都係要先做一定處理程序提取有用而精簡資訊先

例如視象監測系統
最常見先將圖像轉為黑白
然後透過high pass filter 搵出物件邊緣
再用一系列轉換搵出各種圖形資訊
最後先將資訊放入learning machine

問題就係前期處理為固定情境度身訂造
只要環境或者要求有變化就全盤用唔到
但好處係效率高
只要用啱方法只要少量資源就可以實現

由我呢啲門外漢講可能多啲人明
又唔怕俾人插
插我當學嘢

你講緊motion estimation?

做到segmentation tracking就好易

聽過prof講有d情況反而係用返motion tracking黎做segmentation

optical flow segmentation? 聽過但未用過

ultrasound motion tracking好難做 所以好似要reverse咁做

US track blood flow?

你係中大orthopedics?


唔一定係blood flow啦 blood flow好似難d同doppler imaging鬥

最主要係US個PSF好煩 phase difference影響好大

我本身諗住跟果位老細係做us姐 不過後尾冇跟到佢
2017-05-27 23:18:14
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

可唔可以講詳細少少點用convolution嚟搵feature?

利申:知convolution同kernel乜嚟,講得數學啲都ok

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。
2017-05-27 23:19:27
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

可唔可以講詳細少少點用convolution嚟搵feature?

利申:知convolution同kernel乜嚟,講得數學啲都ok

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。


2017-05-27 23:25:57
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

可唔可以講詳細少少點用convolution嚟搵feature?

利申:知convolution同kernel乜嚟,講得數學啲都ok

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)
2017-05-27 23:26:36
呢個post
出現左唔同類型嘅人

1. 以無知為榮的人
2. 傲慢自以為高人一等的知識份子
2017-05-27 23:43:00
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

可唔可以講詳細少少點用convolution嚟搵feature?

利申:知convolution同kernel乜嚟,講得數學啲都ok

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)

只係咁嘅話令我有種用啲高深字眼包裝一啲已知好耐嘅嘢嘅感覺

咁你數學好

你可以google下sift,surf,brief,orb feature既 呢d係cv比較出名既feature extraction
2017-05-27 23:49:56
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

可唔可以講詳細少少點用convolution嚟搵feature?

利申:知convolution同kernel乜嚟,講得數學啲都ok

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)

只係咁嘅話令我有種用啲高深字眼包裝一啲已知好耐嘅嘢嘅感覺

咁你數學好

你可以google下sift,surf,brief,orb feature既 呢d係cv比較出名既feature extraction

同埋math果邊就好興用TV,應該算係pde approach(?)

Tony Chan佢個model用左個果時黎講好特別既approach所以好出名

Normally segmentation係based on edge咁剪
但係佢就proposed minimize (pixel既intensity - 屬於同一個region既mean intensity) (我都唔係好識講 不過睇返佢果份paper應該難唔到你
2017-05-27 23:54:22
簡單講下CNN結構,主要由幾款layer組成

1. convolution (提取feature)
2. pooling (feature 簡化)
3. non-linearalize function (提高系統的非線性程度)
4. fully connected/ inner product (傳統ANN)
5. classification/ deconcolution(output最終結果)

以前NN 唔可行因為所有pixel間都要行neuron connection, 10*10 的圖 output 去10*10 的layer就有 100^2 咁撚多的組合,CNN 用左convolution同pooling的技改提取image faeture進行簡化,咁一層layer用10個faeture kernel, 每個kernel 3*3, 咁只係得3*3*10 個neuron要fit, 令到NN 呢個想法實際可行

太複雜啦 等比人屌啦你

屌你咩已經無得再淺

一係由咩叫kernel,咩係convolution開始講

簡單d就係俾一堆圖(e.g. 車)俾電腦睇,淨係同佢講呢樣野叫車,電腦自動搵"車"的feature,e.g. 有碌,有窗,有bumper, 再深多兩層就人都理解唔到的東西,叫feature vector,搵一大堆數function去描述d 特徵

CNN 同人類局域視角好有關,但我唔想講人類點樣去理解世界呢樣野

可唔可以講詳細少少點用convolution嚟搵feature?

利申:知convolution同kernel乜嚟,講得數學啲都ok

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)

只係咁嘅話令我有種用啲高深字眼包裝一啲已知好耐嘅嘢嘅感覺

咁你數學好

你可以google下sift,surf,brief,orb feature既 呢d係cv比較出名既feature extraction

同埋math果邊就好興用TV,應該算係pde approach(?)

Tony Chan佢個model用左個果時黎講好特別既approach所以好出名

Normally segmentation係based on edge咁剪
但係佢就proposed minimize (pixel既intensity - 屬於同一個region既mean intensity) (我都唔係好識講 不過睇返佢果份paper應該難唔到你

tony chan=陳繁昌?ee仔lm,唔記得1D signal個convolution點做
2017-05-28 00:01:08
btw原來lihkg咁多研究生

係d中小學雞太多 令其他人唔多顯眼
其實呢d post 先有返d上x登既感覺 d小朋友睇兩眼唔明就係到嘈

利申 想學下野
2017-05-28 00:13:50
留名
2017-05-28 00:27:26

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)

只係咁嘅話令我有種用啲高深字眼包裝一啲已知好耐嘅嘢嘅感覺

咁你數學好

你可以google下sift,surf,brief,orb feature既 呢d係cv比較出名既feature extraction

同埋math果邊就好興用TV,應該算係pde approach(?)

Tony Chan佢個model用左個果時黎講好特別既approach所以好出名

Normally segmentation係based on edge咁剪
但係佢就proposed minimize (pixel既intensity - 屬於同一個region既mean intensity) (我都唔係好識講 不過睇返佢果份paper應該難唔到你

有聽過下,都可以話係PDE approach嘅,但意念上minimize TV同apply個low pass filter分別唔大(但方法當然唔同)

如果用2norm就同low pass差唔多 好似係

不過而家成日興sparse所以先1norm

仲有image impainting同netflix prize(即係recommendation system) 實例就係fb news feed, youtube, google suggestion
2017-05-28 00:28:13

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)

只係咁嘅話令我有種用啲高深字眼包裝一啲已知好耐嘅嘢嘅感覺

咁你數學好

你可以google下sift,surf,brief,orb feature既 呢d係cv比較出名既feature extraction

同埋math果邊就好興用TV,應該算係pde approach(?)

Tony Chan佢個model用左個果時黎講好特別既approach所以好出名

Normally segmentation係based on edge咁剪
但係佢就proposed minimize (pixel既intensity - 屬於同一個region既mean intensity) (我都唔係好識講 不過睇返佢果份paper應該難唔到你

tony chan=陳繁昌?ee仔lm,唔記得1D signal個convolution點做

Yes
2017-05-28 00:29:44

Convolution其實係一個spatial filter, 例如最簡單嘅Sobel kernel:
[1 0 -1;
2 0 -2;
1 0 -1]
就可以搵到圖形的邊界:
before:

after:

唔同kernel 會產生唔同feature, 所以CNN個kernel都係要由data train出黎。



數學d咁講 low pass filter就係filter走不斷升跌既pattern

咁反觀high pass filter就係filter走太flat(?)既wave, 留返d high perturbation(?) (即係d 幼既線)

只係咁嘅話令我有種用啲高深字眼包裝一啲已知好耐嘅嘢嘅感覺

咁你數學好

你可以google下sift,surf,brief,orb feature既 呢d係cv比較出名既feature extraction

同埋math果邊就好興用TV,應該算係pde approach(?)

Tony Chan佢個model用左個果時黎講好特別既approach所以好出名

Normally segmentation係based on edge咁剪
但係佢就proposed minimize (pixel既intensity - 屬於同一個region既mean intensity) (我都唔係好識講 不過睇返佢果份paper應該難唔到你

tony chan=陳繁昌?ee仔lm,唔記得1D signal個convolution點做

Yes

原來佢係做依d 讀ust讀到grad都唔知佢做乜,淨係知applied math
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞