簡單了解AlphaGo 同今日既AI

394 回覆
615 Like 13 Dislike
2017-05-26 10:41:52
留名
2017-05-26 10:44:01
我建議樓主由multilayer perceptron 講起,要了解ai 嘅話咁樣係最最最簡單,CNN都唔係個個知道做緊乜嘅。

同埋人腦個part亦可以唔講嘅(講左會得意啲),只係neural network最初果種諗法起源,同佢點function又係另一回事。

2017-05-26 10:45:48
( Show Blocked User - 老舉唔怕柒大 )
2017-05-26 10:47:07

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

讀乜鳩PhD都叫扮勁,話人講唔出
你睇就有份,下下都係要人由頭到尾講俾你講到明,其實網上都有唔少資訊有人寫關於佢既文章,一定講得比我好,而且我都冇咁既時候去寫長文解釋

AlphaGo用既主要idea係deep reinforcement learning with Monte Carlo tree search, 結果同成個methodology係Nature上面發表左超過一年,如果你係大學生可以免費download嚟睇

你想學最多既野,一定係自己主動去搵嚟睇,慢慢理解,你可以選擇速食,但之後你好快就唔記得

如果有咩得罪,係度講句唔好意思

alphago 上年已經睇左啦,咁基本野睇完又要拎出嚟晒?
你無野係到貢獻就直接出去啦,留個讀乜鳩PhD 係到有咩意義?你又浪費時間,我又無得著
唯一推論咪就係有人想晒命,認叻囉

如果有咩得罪,係度講句唔好意思

我講我讀PhD係因為我批評人都要有理據 如果我係乜都唔識就話人就係我唔啱

你覺得係基本既paper唔代表其他人睇過,更加唔係咩晒

我覺得雖然我對呢方面識得多過人,但我學得越多就覺得自己識得越少,所以唔覺得PhD係乜野晒命認叻

你批評人既理據就係你讀phd?
邊個professor 教你?
我從來未見過一個professor 表達意見既時候提出既理據就係佢係professor 囉(支那除外)

你d 咁既權威性人格,我好懷疑你做research 既能力囉


多口講句,你曲解咗人哋意思。佢好明顯講緊話自己讀PhD係想識多啲嘢,從而有咁嘅知識底可以評論姐。。


利申agent仔一名

Research友唔洗同普通人嘈啦
大家水平都唔同
2017-05-26 10:48:50
CNN 最強大係個C字

明嘅就會明

利申: 玩過下mnist, 想應用係medical方面但prof唔想我咁做


而家乜鬼都用 neural network,個人嚟講真係唔係幾中意 雖然設計個 architecture係好花功夫,亦有好多additional layer去令到 performance 更加好,但我硬係覺得,呢樣嘢係一個 black box,人類嘅智慧係無限嘅data入邊真係不值一提,好似諗到咩新嘢,都唔會夠 neural network 嚟咁
2017-05-26 11:11:01
2017-05-26 11:29:59
少見既認真討論
2017-05-26 11:31:01
我明Monte Carlo Tree Search
但係有無人可以解釋下點解個Convolution Network可以做到人類個種intuition?
2017-05-26 11:34:40
LM
2017-05-26 11:34:49
我明Monte Carlo Tree Search
但係有無人可以解釋下點解個Convolution Network可以做到人類個種intuition?

CNN 可以best fit visual features, 而且呢d visual feature可以做到極abstract
2017-05-26 11:46:24

前者只係簡單既regression, machine learning一早已經做緊
而後者,其實都只係multiple of multilayer neural network, 將所有方面既知識串連埋一齊再得出答案
你會話,唔係喎,人不斷重覆諗同一個問題,會有時可以創新到方法,而ai 每次都會得出同一個答案。但其實只係人會每次都evaluate 自己個答案既滿意度再feedback 番去自己個neural network 到做training。 而machine learning 一般唔會咁做只係想個result controllable, 同埋無咁易俾d poison (有意/無意)data 影響,而留待下一次做batch training 先version upgrade
而且其實呢個係人既弱點,因為好易俾人洗腦,只要不斷重覆講一個大話一百次,一千次,人就會不知不覺間信左

人之所以好似好強大,創新力比ai 強係因為人真係有個非常大既neural network,每個cluster of nodes 都掌管唔同知識,但卻可以同時對所有input 作出反應,而且係每次input 都自動調整每個cluster of nodes 既weight
目前黎講machine learning 仲未有咁既computing power 去模擬呢樣野
或者咁講,其實可能已經有咁既computing power, 但一般由於效率比單一用途既machine learning低,暫時未有人倒足夠既錢落海去做呢樣野
其實見到google 搞cloud 就好明顯係想做呢樣野,因為佢想偷d 用家用剩既computation time 黎用, 成本基本上係cloud 既用家俾,但只要cloud 用家越黎越多,google 賺到既computing power 就越多

其實咁樣諗係將人腦睇得太簡單啦。

第一,neural network training其實係好唔efficient, 先唔講deep learning 要百萬sample,就算係一個普通MNIST dataset用普通multilayer perceptron, 都要backpropagate N 次先training到個network. 但人唔先睇一百萬張車嘅相都好易識別到玩具車,真車,漫畫車嘅分別。另一例子,就係語言,而家machine translation又係幾百萬字文本,但人呢?可能跟住本幾百頁嘅書學一兩年都可以明白大概。人類嘅智力唔係簡單嘅input-output mapping, 而係可以理解組成部份之間的闗係,並且加以再組合。有啲似GAN, 但當然比GAN強好多。人腦係parameter極高(無數synapse) 而資料相對極少的情況下,都可以唔overfit, 呢個先係佢勁嘅地方。同埋人腦係transfer learning 方面又係勁到離譜。deep learning 係data 少嘅情況下甚至比唔上一個簡單 linear discriminant analysis.

第二,究竟「創意」係咪一句error feedback就可以解釋晒係好有疑問。alphago 之以受到觸目並唔係單單因為棋力強,而係佢係某個程度上展現出「直覺」同「創意」。但呢種「創意」可唔可以應用係其它方尚係未知之數。例如,係冇明顯對錯作為feedback的情況下,佢可唔可以展現創意?「創意」並唔係純綷隨機,而係「意料之外,情理之中」。咁就必然包含一個evaluate function 去判斷output, 但對於不是非黑即白的結果,例如寫作,對話等等,AI仍然有好多改進空間。

第三,而家AI玩緊嘅,全部都係perfect information, deterministic game. 但如果結果係有隨機或者未知性呢?呢方面AI都係有侍進步。deepmind 想玩starcraft就係呢個原因。starcraft有隨機同埋未知性,圍棋冇。

最後我想講近來有一個唔係咁好嘅趨勢,就係好多人想用artificial neural network去理解人腦係點運作。當然ANN一開始係有少少借鍳人腦,但人腦運作其實比我地想像複雜好多,神經元嘅output 亦未必一定係簡單一個weighted sum. 佢亦都可以做spatial-temporal 嘅運算。我都唔去講記憶,情感,意識呢啲複雜野啦。事實上除左ANN, 仲有好多其它AI技術,例如graphical models, decision tree etc.,較果唔一定比deep learning差。 XGBoost就係用decision tree, 係kaggle 到贏到開巷。我個人就覺得graphical models 係比較接近人腦嘅方式,咁當然事實上人腦可能係咁同model都有啲都未定。
2017-05-26 11:59:33
CNN 最強大係個C字

明嘅就會明

利申: 玩過下mnist, 想應用係medical方面但prof唔想我咁做


而家乜鬼都用 neural network,個人嚟講真係唔係幾中意 雖然設計個 architecture係好花功夫,亦有好多additional layer去令到 performance 更加好,但我硬係覺得,呢樣嘢係一個 black box,人類嘅智慧係無限嘅data入邊真係不值一提,好似諗到咩新嘢,都唔會夠 neural network 嚟咁

好同意巴打講法。而家差唔多咩問題掉個CNN, RNN都好似即刻勁過晒之前啲方法。但啲neural network成個black box, 佢用左啲咩feature 根本人好難理解。究竟對人類觸決問題係咪真係有幫助,真係好難講。
2017-05-26 12:08:09
好多CS JJ
2017-05-26 12:39:47
太長,唔quote 無夢人
一。你會唔會太睇高左人腦呢?其實人腦好多時都好唔efficient,要分玩具車,真車,漫畫車係咪真係幾張相就得呢?你可以試下俾一個細佬仔去分,依家d 日日對住部iPad 既細佬除時分唔到現實同二次元,你作為一個成年人能夠輕易分辨到係因為你已經係過去睇過無數既真車,玩具車,漫畫車,而且唔止係咁,你仲睇過好多真船,玩具船,漫畫船,真實環境,玩具場境,漫畫背景,etc
你有非常多既feature 去分辨真,玩具,漫畫,而且仲係以年為單位既training data
人腦既強大之處係在於其實每次input 都係將五感所感受到既野同時輸入,而且仲會對前後場景同時作出分析,預估完先會對現在呢一刻既問題作出回答,所有種類既問題都係同一個neural network 作出回答。 唔知你有無試過突然聽唔到人地講野成句句子入面既某一個詞語,對方重覆幾次都仲係聽唔到,呢種情況特別容易發生係你唔熟悉既topic。因為人腦唔單單係聽果個詞語既音頻黎分析,重會跟對象,前文後理黎判斷。所以當對方講一個唔係你expect 範圍內既詞語你會突然理解不能(雖然果個詞語單獨黎講你係識既)

人腦其實係一個極典型under fitting 既例子,所以人腦對一d noise 極少甚至無noise 既問題 efficiency 係極低(e.g. 數學運算)

而人腦真正強大既係power efficiency, 用極少能量已經可以做到極大量計算

人腦同ai 各有好處,無乜必要去誇大人腦既強項
2017-05-26 12:43:17
im
2017-05-26 12:54:27
好多高手
2017-05-26 12:58:00
太長,唔quote 無夢人
一。你會唔會太睇高左人腦呢?其實人腦好多時都好唔efficient,要分玩具車,真車,漫畫車係咪真係幾張相就得呢?你可以試下俾一個細佬仔去分,依家d 日日對住部iPad 既細佬除時分唔到現實同二次元,你作為一個成年人能夠輕易分辨到係因為你已經係過去睇過無數既真車,玩具車,漫畫車,而且唔止係咁,你仲睇過好多真船,玩具船,漫畫船,真實環境,玩具場境,漫畫背景,etc
你有非常多既feature 去分辨真,玩具,漫畫,而且仲係以年為單位既training data
人腦既強大之處係在於其實每次input 都係將五感所感受到既野同時輸入,而且仲會對前後場景同時作出分析,預估完先會對現在呢一刻既問題作出回答,所有種類既問題都係同一個neural network 作出回答。 唔知你有無試過突然聽唔到人地講野成句句子入面既某一個詞語,對方重覆幾次都仲係聽唔到,呢種情況特別容易發生係你唔熟悉既topic。因為人腦唔單單係聽果個詞語既音頻黎分析,重會跟對象,前文後理黎判斷。所以當對方講一個唔係你expect 範圍內既詞語你會突然理解不能(雖然果個詞語單獨黎講你係識既)

人腦其實係一個極典型under fitting 既例子,所以人腦對一d noise 極少甚至無noise 既問題 efficiency 係極低(e.g. 數學運算)

而人腦真正強大既係power efficiency, 用極少能量已經可以做到極大量計算

人腦同ai 各有好處,無乜必要去誇大人腦既強項


我絕對唔會話佢睇高咗人腦。

你諗下,電腦去分咩車咩車,training data閒閒地都幾萬架車,當你25歲,我哋有冇見過幾萬架車?我就覺得唔會有啦。仲有,我哋即時見過一個人一面,下次見番嘅時候都可以認得出條友,電腦就難啲,training sample 得一個其實乜都做唔到。

係好多範疇底下ai都係未贏到人腦,不過的確係進步得極快,例如computer vision個邊嘅 classification, detection problem每年幾個% accuracy 咁上。例如係一張圖入邊有馬路有車有乜咁樣,要認晒佢哋呢個task其實係好撚柒難,但係而家嘅電腦已經好撚屈機:

https://www.youtube.com/watch?v=VOC3huqHrss

至於你講果種係人腦用咗 high level knowledge,machine有無類似?long short term memory 你又覺得算唔算?

我會咁講,有無限嘅data,電腦一定贏人腦。
2017-05-26 13:08:23
前員工
樓主係咪畀自己寫既AI搶咗飯碗?
2017-05-26 13:22:07
2017-05-26 13:24:26
Lm
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞