[ 人工智能 ]簡介下現代AI

154 回覆
180 Like 4 Dislike
2017-11-29 13:07:24
香港做ai有咩好做?

睇andrew ng coursera & deep learning 睇左幾個月,都無咩呢d 工

自己搞又無咩data

香港無,過日本,好多唔洗識日文都請

香港有,但9成都係中資background
2017-11-29 13:25:44
香港做ai有咩好做?

睇andrew ng coursera & deep learning 睇左幾個月,都無咩呢d 工

自己搞又無咩data

香港無,過日本,好多唔洗識日文都請

香港有,但9成都係中資background


有冇留意咩行業? 我去angelist / linkedin睇又唔覺喎
2017-11-29 13:29:54
來來去去都係forward prop, 計loss, back prop, 計dw, db, 最後update parameters

最on9 既係hyper parameter全部都好似9撞,一開始都唔知點define no of hidden layers, layer units, learning rates, optimization algo, etc

好似9質d data入去個model run 1 run
2017-11-29 13:37:10
香港做ai有咩好做?

睇andrew ng coursera & deep learning 睇左幾個月,都無咩呢d 工

自己搞又無咩data

香港無,過日本,好多唔洗識日文都請

香港有,但9成都係中資background


有冇留意咩行業? 我去angelist / linkedin睇又唔覺喎

我做緊機械人, 其實而家medical, ecommerce都好需要人, 科學園有一間叫sensetime,算係香港最大既AI公司,但係中資來

如果你想入外國公司,去外國啦,香港本土d人你同佢講樓上堆野好多都當你痴線佬又搵唔到錢
2017-11-29 13:39:01
來來去去都係forward prop, 計loss, back prop, 計dw, db, 最後update parameters

最on9 既係hyper parameter全部都好似9撞,一開始都唔知點define no of hidden layers, layer units, learning rates, optimization algo, etc

好似9質d data入去個model run 1 run

可能根本人腦一開波initialize果陣都係鳩set d parameters

而呢d鳩set就影響一個人究竟學習能力有幾強
2017-11-29 13:42:10
留名
2017-11-29 13:43:02
等睇比人屌唔識中文又離地

已經寫到好貼地

仲有d人覺得你講得深 跟住唔自己睇又要屌
2017-11-29 13:43:33
高汁post 留名
2017-11-29 13:44:48
來來去去都係forward prop, 計loss, back prop, 計dw, db, 最後update parameters

最on9 既係hyper parameter全部都好似9撞,一開始都唔知點define no of hidden layers, layer units, learning rates, optimization algo, etc

好似9質d data入去個model run 1 run

可能根本人腦一開波initialize果陣都係鳩set d parameters

而呢d鳩set就影響一個人究竟學習能力有幾強

但係hinton想推翻backprop

如果作為model 大部分人接受唔到neural net太black box姐
2017-11-29 13:56:50
睇哂 但最後有d 唔明 有無例子?

例如, 我做一個決定有好多唔同既parameters

當我lunch買飯食 影響既因素有價錢,好唔好食,距離等等

而呢d 因素可以歸納做理性 or 感性

AI 有咩方法去learn 一個感性既parameters 呢??

捉棋就比較容易判斷一個決定係岩定錯 因為係純粹理性既判斷 最後輸嬴黎做reinforce就得

但現實上好多決定都有感性既因素 結果亦唔係輸同嬴既區別

咁d AI 可以點learn 到?
2017-11-29 13:59:49
來來去去都係forward prop, 計loss, back prop, 計dw, db, 最後update parameters

最on9 既係hyper parameter全部都好似9撞,一開始都唔知點define no of hidden layers, layer units, learning rates, optimization algo, etc

好似9質d data入去個model run 1 run

可能根本人腦一開波initialize果陣都係鳩set d parameters

而呢d鳩set就影響一個人究竟學習能力有幾強


我唔係讀neuroscience所以真係唔多識

就算有呢堆cells佢地一開波個初期值點究竟係由咩機制去控制
2017-11-29 14:00:57
如果ai可以取代人類,咁人類有咩存在的意義?
2017-11-29 14:05:06
睇哂 但最後有d 唔明 有無例子?

例如, 我做一個決定有好多唔同既parameters

當我lunch買飯食 影響既因素有價錢,好唔好食,距離等等

而呢d 因素可以歸納做理性 or 感性

AI 有咩方法去learn 一個感性既parameters 呢??

捉棋就比較容易判斷一個決定係岩定錯 因為係純粹理性既判斷 最後輸嬴黎做reinforce就得

但現實上好多決定都有感性既因素 結果亦唔係輸同嬴既區別

咁d AI 可以點learn 到?

感性因素而家日本隻pepper有個情感機制

人類情感有一part係由大腦既hormone chemicals控制,最簡單例子係多巴胺,你個腦多左呢d物質會令你覺得開心,仲有幾十隻唔同的chemcial去做一個平衡

machine learning就係將呢d chemical composition量化左,個output就係人類既情感,pepper對眼會sense其他人既面部表情去知道當時佢既digital hormone level應該有咩情感

暫時情感AI呢樣野仲係起步階段,可能好快會有更新既算法出來
2017-11-29 14:08:02
睇哂 但最後有d 唔明 有無例子?

例如, 我做一個決定有好多唔同既parameters

當我lunch買飯食 影響既因素有價錢,好唔好食,距離等等

而呢d 因素可以歸納做理性 or 感性

AI 有咩方法去learn 一個感性既parameters 呢??

捉棋就比較容易判斷一個決定係岩定錯 因為係純粹理性既判斷 最後輸嬴黎做reinforce就得

但現實上好多決定都有感性既因素 結果亦唔係輸同嬴既區別

咁d AI 可以點learn 到?

感性因素而家日本隻pepper有個情感機制

人類情感有一part係由大腦既hormone chemicals控制,最簡單例子係多巴胺,你個腦多左呢d物質會令你覺得開心,仲有幾十隻唔同的chemcial去做一個平衡

machine learning就係將呢d chemical composition量化左,個output就係人類既情感,pepper對眼會sense其他人既面部表情去知道當時佢既digital hormone level應該有咩情感

暫時情感AI呢樣野仲係起步階段,可能好快會有更新既算法出來

之前RTHK有條片拍pepper同人捉棋,pepper捉輸左,佢之前既algo preset左輸係會感到不快樂,但係佢見到d人就算輸左都好開心,佢就理解為雖然捉棋結果係輸左,但係捉棋既過程先係愉悅既所在點,之後佢就學識左enjoy捉棋呢個活動
2017-11-29 14:11:41
睇哂 但最後有d 唔明 有無例子?

例如, 我做一個決定有好多唔同既parameters

當我lunch買飯食 影響既因素有價錢,好唔好食,距離等等

而呢d 因素可以歸納做理性 or 感性

AI 有咩方法去learn 一個感性既parameters 呢??

捉棋就比較容易判斷一個決定係岩定錯 因為係純粹理性既判斷 最後輸嬴黎做reinforce就得

但現實上好多決定都有感性既因素 結果亦唔係輸同嬴既區別

咁d AI 可以點learn 到?

anything can be, as long as you can quantify it
2017-11-29 14:16:24
咁岩我畢業論文寫 論機械人的道德考量
巴打有冇reference?

https://www.media.mit.edu/projects/moral-machine/overview/
2017-11-29 14:22:09
ee仔睇唔明lm
2017-11-29 14:23:17
巴打咩background?
讀緊MSc data science有冇機做到AI related既野

bachleor in physics, master唔講

基本上咩displine都可以用到AI

Top AI 工最鍾意Physics grad
2017-11-29 14:25:20
前幾個月睇過份doctoral thesis講4隻machine learning algo,linear regression,SVM,k-nearest integer仲有隻唔記得乜叉睇唔撚明
2017-11-29 14:28:12
ANN小例子

介紹返一set data叫MNIST,係AI界做圖像分類既入門data,內容係28*28 pixel的手寫0-9數字,好多時d人去做benchmarking呢套data容量小而且已經well established,所以所有AI image detection framework既hello world都係由呢set data開始

http://yann.lecun.com/exdb/mnist/

tensorflow, pytorch內置左dl link同reader,唔使自己再寫reader,非常好用的data set

睇下neural net (ANN), 錯誤率0.35, CNN既錯誤率可以去到0.23

我之後會再講CNN係乜東西,呢樣野係現代圖像處理既最先進算法,係ANN既變化來


MNIST既dataset,一堆手寫數字

呢堆數字放大來睇,其實係個28*28的矩陣來,入面就係0-1既數字(float image),點解要float呢?其實0-255的整數值圖都ok,但係tensorflow pytorch輸入都係要32bit float point number,我都唔知點解要咁set


放大張相睇下


MNIST係z 方向做堆疊,就變左一個28*28*256咁多個數字既matrix啦

呢個可以拎來做輸入層(input layer)


呢個就係output vector, 10*55000既matrix array, 第一層[0 0 0 0 1 0 0 0 0 0]代表結果係5,呢個我地叫output layer

咁我地就可以用ANN既方法去train部電腦去學個數字形狀。如果第一個如果係[1 0 0 0 0 0 0 0 0 0], 即係話你個network入面d weight同bias值唔岩,要改

呢個過程要不停做直到我地叫佢停為止


中間d weight matrix我地又叫feature map,係可以拎出來plot來睇下,紅色係負值,藍色係正值,亦即係愈似果個數字既位,就愈藍,愈覺得唔係既,就會愈紅

有呢個小例子希望大家更為了解咩係ANN
2017-11-29 14:40:37
去到呢步想講下data randomization既少量技巧,其實有N咁多種,呢度講下如果大家都用ANN,點樣排d data會有效少少

拎返MNIST做例子,點樣先係最易入曬d data去train一次呢?

無錯就係由頭到尾順序run一次啦

最少既工夫做最多既野,咁當然result未必會好,因為前後既次序(前面多d 1後面少d 1)會影響訓練精度

又由於電腦ram有限(CPU又好GPU又好),所以呢55000個data係無可能一次放曬入去度train,所以就要分batch, 變左d 28*28*100咁樣既小batch入去個ANN度訓練

每loop完所有data一次就叫一個episode (epoch)

而每個epoch既data前後排列,我地有會隨機化左佢,呢個過程叫shuffle

仲有原生data仲可以分為training同evaluation/testing兩部份

由於你用同一組data去train,你之後放返同一set的data入去evaluate/inference,結果一定係fit得好架

ML既重點,就係由有限既data set,對未知的data進行預測, 所以我地訓練之時,要保留一部份data唔可以俾個machine見過,之後再拎d未見過的data俾去佢試一下預估準確度,呢個先係valid的準確度

至於點分呢兩set data,內裡大有學問

實際上我去train的時間就係random揀training:evaluation 8:2既分類就算
2017-11-29 14:44:41
之後會開始講咩係Deep Learning
2017-11-29 14:46:31
strong post
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞