簡單了解AlphaGo 同今日既AI

394 回覆
615 Like 13 Dislike
2017-05-26 08:05:22
留名

喂樓上指出錯係可以
但紅字加句咩此post已完/留舊 就算
真係冇乜建設性

可否都麻煩大家 指錯處都留低一兩句 錯咩、正確係咩?

難得有認真學術post 唔好一野打沉人啦
喺連登開呢啲post好大壓力

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

話人錯貼個就走 低質到。。
2017-05-26 08:05:26
2017-05-26 08:06:11
以前都見過呢啲模擬人類神經網絡嘅程式嘅書(咦咩嚟,拎起,嘩好深,放返低),又聽過人話AI發展停滯不前,點解去到呢期突飛猛進?外星人通水?



d theory 真係唔係咩新鮮野
至於樽頸位我覺得係training speed
而家受惠於distributed技術成熟好多野都可以多工進行
而家家用電腦都4core8thread, 用埋gpu成千上萬core都不是夢
run model可以縮短數以幾十倍計既時間
咁帶出黎相關既多工agorithm, database 制式自然都加速快展
其次big data個term太響引入資金投資都有唔少幫助

利申9吹
2017-05-26 08:09:07
留名學野
2017-05-26 08:11:30
LM
2017-05-26 08:17:11
留名

喂樓上指出錯係可以
但紅字加句咩此post已完/留舊 就算
真係冇乜建設性

可否都麻煩大家 指錯處都留低一兩句 錯咩、正確係咩?

難得有認真學術post 唔好一野打沉人啦
喺連登開呢啲post好大壓力

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

讀乜鳩PhD都叫扮勁,話人講唔出
你睇就有份,下下都係要人由頭到尾講俾你講到明,其實網上都有唔少資訊有人寫關於佢既文章,一定講得比我好,而且我都冇咁既時候去寫長文解釋

AlphaGo用既主要idea係deep reinforcement learning with Monte Carlo tree search, 結果同成個methodology係Nature上面發表左超過一年,如果你係大學生可以免費download嚟睇

你想學最多既野,一定係自己主動去搵嚟睇,慢慢理解,你可以選擇速食,但之後你好快就唔記得

如果有咩得罪,係度講句唔好意思
2017-05-26 08:18:30
以前都見過呢啲模擬人類神經網絡嘅程式嘅書(咦咩嚟,拎起,嘩好深,放返低),又聽過人話AI發展停滯不前,點解去到呢期突飛猛進?外星人通水?

個人電腦勁咗,所以普及咗


上網快咗或過data既harddisk/usb或網上掛既size大咗都有關,下下裝落floppy或者用56k,搞全日可能得幾廿粒data,蚊都瞓
不過大家上網大file size通常係用嚟打丁

Neural network本身係已經提出左好耐既野 只係training時間要好長(single thread)
而gpu既parallellism同埋本身design計既graphics(matrix/grid)同neural net既設計好似 所以先突然間推得咁快

如果上網就係關distributed system事
2017-05-26 08:22:01
以前都見過呢啲模擬人類神經網絡嘅程式嘅書(咦咩嚟,拎起,嘩好深,放返低),又聽過人話AI發展停滯不前,點解去到呢期突飛猛進?外星人通水?



d theory 真係唔係咩新鮮野
至於樽頸位我覺得係training speed
而家受惠於distributed技術成熟好多野都可以多工進行
而家家用電腦都4core8thread, 用埋gpu成千上萬core都不是夢
run model可以縮短數以幾十倍計既時間
咁帶出黎相關既多工agorithm, database 制式自然都加速快展
其次big data個term太響引入資金投資都有唔少幫助

利申9吹

N記掉左好多錢落去 學術界好多都要買gtx1080/titanX

利申寫過下CUDA, 真係好撚爽
2017-05-26 08:26:36
lm
2017-05-26 08:35:12
我想了解一下 alpha go 係根據highest possibility to win去捉棋,咁同人腦係咪一樣?算唔算人工智能? 定只係一台可以自我進行最高成功率行動既機器?

多嘴代樓主答. 嚴格黎講所有人為製造出黎嘅智能系統都可能叫人工智能, 同佢用嘅方法係咪同人腦一樣冇關係.

如果你問alpha go 係咪好似人咁思考, 係一台strong AI, 咁答案係否定的. 原因好簡單, 佢淨係識捉圍棋, 唔識其它.


人類作出決定係經過係stimulus and response + memory,而alpha go係根據對手落子+ 經驗(or say possibility) 去決定每一步棋,所以我想知現今最前線bio study 對人腦既理解係咪都係同中學/degree level 差唔多?
另外,雖然alphago 只係識捉圍棋,但唔排除可以上升到一個高度可以根據possibility 決定行動,咁同人腦分析比較,係咪已經好接近 ?

利申 Chem底 但間唔中睇paper 睇到類似既野 所以有呢個諗法

我估你係講緊probability, 而家學術界對人腦嘅理論多到數唔晒. 係有理論講人腦其實只係一部機率機器, 呢個叫bayesian brain theory. 而係最底層神經細胞層面, 呢個理論可能亦都有根據. neuron同neuron之間通訊, 有樣野叫long term potentiation. 簡單黎講, 如果兩個neurons 同時fire, 佢地之間嘅連結會變強. 我地可以理解成兩個事件同時出現, 會增強佢地之間嘅連結. 呢個其實就係累積計算緊兩件事同時發生的機率.

alphago唔係strong AI 唔係因為佢係咪用probability, 用probability 嘅智能系統幾十年前都有. 可能咁講, 機率類人工智能根本就係machine learning 嘅基本 (e.g naive bayesian). alphago 個架構仲未可以令佢可以解決一般問題. 一個BB可能智力唔高, 但佢可以講下野, 又可以食野, 又識分辨父母個樣, 呢啲就係general intelligence. 我地暫時都未知點樣先可以做到咁. 我個人認為generall intelligence除左純綷經驗外, 仲要創意同分析. 人唔係單單 stimulus-response + memory 嘅動物. 我地仲識得自省, 透過經驗了解問題, 同埋提出創新的解決辦法. 而呢個能力係可以應用係任何方面, 就好似聰明人做大部份事都成功. 唔一定因為佢地天生樣樣掂,而後佢地掌握左一套可以應該用任何事情嘅方法.

前者只係簡單既regression, machine learning一早已經做緊
而後者,其實都只係multiple of multilayer neural network, 將所有方面既知識串連埋一齊再得出答案
你會話,唔係喎,人不斷重覆諗同一個問題,會有時可以創新到方法,而ai 每次都會得出同一個答案。但其實只係人會每次都evaluate 自己個答案既滿意度再feedback 番去自己個neural network 到做training。 而machine learning 一般唔會咁做只係想個result controllable, 同埋無咁易俾d poison (有意/無意)data 影響,而留待下一次做batch training 先version upgrade
而且其實呢個係人既弱點,因為好易俾人洗腦,只要不斷重覆講一個大話一百次,一千次,人就會不知不覺間信左

人之所以好似好強大,創新力比ai 強係因為人真係有個非常大既neural network,每個cluster of nodes 都掌管唔同知識,但卻可以同時對所有input 作出反應,而且係每次input 都自動調整每個cluster of nodes 既weight
目前黎講machine learning 仲未有咁既computing power 去模擬呢樣野
或者咁講,其實可能已經有咁既computing power, 但一般由於效率比單一用途既machine learning低,暫時未有人倒足夠既錢落海去做呢樣野
其實見到google 搞cloud 就好明顯係想做呢樣野,因為佢想偷d 用家用剩既computation time 黎用, 成本基本上係cloud 既用家俾,但只要cloud 用家越黎越多,google 賺到既computing power 就越多
2017-05-26 08:35:35
9up下reinforcement learning係乜鳩

類似就係你而家呢個state(t0)有a0,b0,c0呢3個action可以做

咁做每樣野都有個reward,當係食粒糖你食(positive reward)/做完會比人屌(negative reward)
given reward(a0) > reward(b0) > reward(c0)

佢就緊係會揀食糖啦(最好果個option: a0)

咁問題就係到下一個state(t1)就有幾個option

揀完a0有, a01, a02, a03, (reward a01 > a02 > a03)
揀完b0有, b01, b02, b03, (reward b01 > b02 > b03)
揀完c0有, c01, c02, c03, (reward c01 > c02 > c03)

咁佢又要再揀,但係佢發現原來上一個state(t0)冇咁好果個option(b0)係呢一個state(t1)有個好d既option揀 (b01 > a01),甚至加埋係 (b01 +b0> a0 + a01)

所以睇多一個state就發現自己應該揀b0->b01,而唔係揀a0->a01

而google班IT狗就係呢一part就係要諗方法搵最optimal既option

而另一樣野就係點定義個reward, 應該就係要靠monte carlo(好似係

利申冇詳細睇過nature果份paper 有錯請指出
2017-05-26 08:36:32
Lm
2017-05-26 08:36:44
Lm
2017-05-26 08:39:43
我想了解一下 alpha go 係根據highest possibility to win去捉棋,咁同人腦係咪一樣?算唔算人工智能? 定只係一台可以自我進行最高成功率行動既機器?

多嘴代樓主答. 嚴格黎講所有人為製造出黎嘅智能系統都可能叫人工智能, 同佢用嘅方法係咪同人腦一樣冇關係.

如果你問alpha go 係咪好似人咁思考, 係一台strong AI, 咁答案係否定的. 原因好簡單, 佢淨係識捉圍棋, 唔識其它.


人類作出決定係經過係stimulus and response + memory,而alpha go係根據對手落子+ 經驗(or say possibility) 去決定每一步棋,所以我想知現今最前線bio study 對人腦既理解係咪都係同中學/degree level 差唔多?
另外,雖然alphago 只係識捉圍棋,但唔排除可以上升到一個高度可以根據possibility 決定行動,咁同人腦分析比較,係咪已經好接近 ?

利申 Chem底 但間唔中睇paper 睇到類似既野 所以有呢個諗法

我估你係講緊probability, 而家學術界對人腦嘅理論多到數唔晒. 係有理論講人腦其實只係一部機率機器, 呢個叫bayesian brain theory. 而係最底層神經細胞層面, 呢個理論可能亦都有根據. neuron同neuron之間通訊, 有樣野叫long term potentiation. 簡單黎講, 如果兩個neurons 同時fire, 佢地之間嘅連結會變強. 我地可以理解成兩個事件同時出現, 會增強佢地之間嘅連結. 呢個其實就係累積計算緊兩件事同時發生的機率.

alphago唔係strong AI 唔係因為佢係咪用probability, 用probability 嘅智能系統幾十年前都有. 可能咁講, 機率類人工智能根本就係machine learning 嘅基本 (e.g naive bayesian). alphago 個架構仲未可以令佢可以解決一般問題. 一個BB可能智力唔高, 但佢可以講下野, 又可以食野, 又識分辨父母個樣, 呢啲就係general intelligence. 我地暫時都未知點樣先可以做到咁. 我個人認為generall intelligence除左純綷經驗外, 仲要創意同分析. 人唔係單單 stimulus-response + memory 嘅動物. 我地仲識得自省, 透過經驗了解問題, 同埋提出創新的解決辦法. 而呢個能力係可以應用係任何方面, 就好似聰明人做大部份事都成功. 唔一定因為佢地天生樣樣掂,而後佢地掌握左一套可以應該用任何事情嘅方法.

前者只係簡單既regression, machine learning一早已經做緊
而後者,其實都只係multiple of multilayer neural network, 將所有方面既知識串連埋一齊再得出答案
你會話,唔係喎,人不斷重覆諗同一個問題,會有時可以創新到方法,而ai 每次都會得出同一個答案。但其實只係人會每次都evaluate 自己個答案既滿意度再feedback 番去自己個neural network 到做training。 而machine learning 一般唔會咁做只係想個result controllable, 同埋無咁易俾d poison (有意/無意)data 影響,而留待下一次做batch training 先version upgrade
而且其實呢個係人既弱點,因為好易俾人洗腦,只要不斷重覆講一個大話一百次,一千次,人就會不知不覺間信左

人之所以好似好強大,創新力比ai 強係因為人真係有個非常大既neural network,每個cluster of nodes 都掌管唔同知識,但卻可以同時對所有input 作出反應,而且係每次input 都自動調整每個cluster of nodes 既weight
目前黎講machine learning 仲未有咁既computing power 去模擬呢樣野
或者咁講,其實可能已經有咁既computing power, 但一般由於效率比單一用途既machine learning低,暫時未有人倒足夠既錢落海去做呢樣野
其實見到google 搞cloud 就好明顯係想做呢樣野,因為佢想偷d 用家用剩既computation time 黎用, 成本基本上係cloud 既用家俾,但只要cloud 用家越黎越多,google 賺到既computing power 就越多

我記得有人compare過人既neuron processing speed同電腦比
養部alpha go剩係電費都交死你, 要mobile robot carry舊咁既野,加埋比alpha go用既電池 應該都冇乜人養得起

而家半導體技術又係瓶頸左
2017-05-26 08:40:11
留名

喂樓上指出錯係可以
但紅字加句咩此post已完/留舊 就算
真係冇乜建設性

可否都麻煩大家 指錯處都留低一兩句 錯咩、正確係咩?

難得有認真學術post 唔好一野打沉人啦
喺連登開呢啲post好大壓力

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

讀乜鳩PhD都叫扮勁,話人講唔出
你睇就有份,下下都係要人由頭到尾講俾你講到明,其實網上都有唔少資訊有人寫關於佢既文章,一定講得比我好,而且我都冇咁既時候去寫長文解釋

AlphaGo用既主要idea係deep reinforcement learning with Monte Carlo tree search, 結果同成個methodology係Nature上面發表左超過一年,如果你係大學生可以免費download嚟睇

你想學最多既野,一定係自己主動去搵嚟睇,慢慢理解,你可以選擇速食,但之後你好快就唔記得

如果有咩得罪,係度講句唔好意思

alphago 上年已經睇左啦,咁基本野睇完又要拎出嚟晒?
你無野係到貢獻就直接出去啦,留個讀乜鳩PhD 係到有咩意義?你又浪費時間,我又無得著
唯一推論咪就係有人想晒命,認叻囉

如果有咩得罪,係度講句唔好意思
2017-05-26 08:42:28
如果有興趣睇深啲既人可以Google search “Mastering the game of Go with deep neural networks and tree search” 呢篇文係Deepmind 同 Google 啲人寫既。大約解釋alphago 既Monte Carlo tree search method, 佢同書教既minimax, depth first 好唔同

link: https://gogameguru.com/i/2016/03/deepmind-mastering-go.pdf

利申 讀緊AI
2017-05-26 08:45:12
留名
2017-05-26 08:46:11
留個名
2017-05-26 08:51:09
留明
2017-05-26 08:56:37
留名

喂樓上指出錯係可以
但紅字加句咩此post已完/留舊 就算
真係冇乜建設性

可否都麻煩大家 指錯處都留低一兩句 錯咩、正確係咩?

難得有認真學術post 唔好一野打沉人啦
喺連登開呢啲post好大壓力

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

讀乜鳩PhD都叫扮勁,話人講唔出
你睇就有份,下下都係要人由頭到尾講俾你講到明,其實網上都有唔少資訊有人寫關於佢既文章,一定講得比我好,而且我都冇咁既時候去寫長文解釋

AlphaGo用既主要idea係deep reinforcement learning with Monte Carlo tree search, 結果同成個methodology係Nature上面發表左超過一年,如果你係大學生可以免費download嚟睇

你想學最多既野,一定係自己主動去搵嚟睇,慢慢理解,你可以選擇速食,但之後你好快就唔記得

如果有咩得罪,係度講句唔好意思

alphago 上年已經睇左啦,咁基本野睇完又要拎出嚟晒?
你無野係到貢獻就直接出去啦,留個讀乜鳩PhD 係到有咩意義?你又浪費時間,我又無得著
唯一推論咪就係有人想晒命,認叻囉

如果有咩得罪,係度講句唔好意思

我講我讀PhD係因為我批評人都要有理據 如果我係乜都唔識就話人就係我唔啱

你覺得係基本既paper唔代表其他人睇過,更加唔係咩晒

我覺得雖然我對呢方面識得多過人,但我學得越多就覺得自己識得越少,所以唔覺得PhD係乜野晒命認叻
2017-05-26 09:02:44
留名

喂樓上指出錯係可以
但紅字加句咩此post已完/留舊 就算
真係冇乜建設性

可否都麻煩大家 指錯處都留低一兩句 錯咩、正確係咩?

難得有認真學術post 唔好一野打沉人啦
喺連登開呢啲post好大壓力

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

讀乜鳩PhD都叫扮勁,話人講唔出
你睇就有份,下下都係要人由頭到尾講俾你講到明,其實網上都有唔少資訊有人寫關於佢既文章,一定講得比我好,而且我都冇咁既時候去寫長文解釋

AlphaGo用既主要idea係deep reinforcement learning with Monte Carlo tree search, 結果同成個methodology係Nature上面發表左超過一年,如果你係大學生可以免費download嚟睇

你想學最多既野,一定係自己主動去搵嚟睇,慢慢理解,你可以選擇速食,但之後你好快就唔記得

如果有咩得罪,係度講句唔好意思

alphago 上年已經睇左啦,咁基本野睇完又要拎出嚟晒?
你無野係到貢獻就直接出去啦,留個讀乜鳩PhD 係到有咩意義?你又浪費時間,我又無得著
唯一推論咪就係有人想晒命,認叻囉

如果有咩得罪,係度講句唔好意思

我講我讀PhD係因為我批評人都要有理據 如果我係乜都唔識就話人就係我唔啱

你覺得係基本既paper唔代表其他人睇過,更加唔係咩晒

我覺得雖然我對呢方面識得多過人,但我學得越多就覺得自己識得越少,所以唔覺得PhD係乜野晒命認叻

你批評人既理據就係你讀phd?
邊個professor 教你?
我從來未見過一個professor 表達意見既時候提出既理據就係佢係professor 囉(支那除外)

你d 咁既權威性人格,我好懷疑你做research 既能力囉
2017-05-26 09:08:54
留名

喂樓上指出錯係可以
但紅字加句咩此post已完/留舊 就算
真係冇乜建設性

可否都麻煩大家 指錯處都留低一兩句 錯咩、正確係咩?

難得有認真學術post 唔好一野打沉人啦
喺連登開呢啲post好大壓力

d 人要扮勁無計
具體野唔會講得出,剩係話自己讀乜鳩PhD, 係邊到邊到做咁

讀乜鳩PhD都叫扮勁,話人講唔出
你睇就有份,下下都係要人由頭到尾講俾你講到明,其實網上都有唔少資訊有人寫關於佢既文章,一定講得比我好,而且我都冇咁既時候去寫長文解釋

AlphaGo用既主要idea係deep reinforcement learning with Monte Carlo tree search, 結果同成個methodology係Nature上面發表左超過一年,如果你係大學生可以免費download嚟睇

你想學最多既野,一定係自己主動去搵嚟睇,慢慢理解,你可以選擇速食,但之後你好快就唔記得

如果有咩得罪,係度講句唔好意思

alphago 上年已經睇左啦,咁基本野睇完又要拎出嚟晒?
你無野係到貢獻就直接出去啦,留個讀乜鳩PhD 係到有咩意義?你又浪費時間,我又無得著
唯一推論咪就係有人想晒命,認叻囉

如果有咩得罪,係度講句唔好意思

我講我讀PhD係因為我批評人都要有理據 如果我係乜都唔識就話人就係我唔啱

你覺得係基本既paper唔代表其他人睇過,更加唔係咩晒

我覺得雖然我對呢方面識得多過人,但我學得越多就覺得自己識得越少,所以唔覺得PhD係乜野晒命認叻

你批評人既理據就係你讀phd?
邊個professor 教你?
我從來未見過一個professor 表達意見既時候提出既理據就係佢係professor 囉(支那除外)

你d 咁既權威性人格,我好懷疑你做research 既能力囉

吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞