淺談AlphaGo原理

245 回覆
971 Like 18 Dislike
2017-07-30 00:01:05
聽過有人話其實啲algorithm唔係咩新野
只係computing power勁咗先實現到以前啲 algorithm

真定假?


Neural Network 1982年已經有人提出,不過當時個想法太勁,冇電腦做到

其他Deep Neural Network 其實1989至199X年都已經有,但當時電腦只係支持到Neural Network 未做到Deep Neural Network

到左近幾年GPU勁左好多,Distributed computing 技術成熟,所以Deep Neural Network真正可以開始用
2017-07-30 00:08:46
LM
2017-07-30 00:11:20
咁樓主有無方法研究到勁過alphago既野?

然後轉手賣比中國,打贏美國,我諗住你即刻變有錢大人物


AlphaGo已經係Google覺得冇咩用,放個原理出黎比我地D平常人睇下
人地個Lab入而個科技快係快出面10幾年
如果我真係走去攪個勁過AlphaGo出黎挑戰,只會比Google係Lab求其拎樣野出黎撚我狗

言下之意 巴打有啲料到喎
2017-07-30 00:13:07
咁樓主有無方法研究到勁過alphago既野?

然後轉手賣比中國,打贏美國,我諗住你即刻變有錢大人物


AlphaGo已經係Google覺得冇咩用,放個原理出黎比我地D平常人睇下
人地個Lab入而個科技快係快出面10幾年
如果我真係走去攪個勁過AlphaGo出黎挑戰,只會比Google係Lab求其拎樣野出黎撚我狗

言下之意 巴打有啲料到喎


我係話如果,事實係我冇咁嘅能力
2017-07-30 00:13:30
難得一見既高質post
2017-07-30 01:03:00
2017-07-30 01:10:28
lm
2017-07-30 01:34:55
lm
2017-07-30 01:57:55
唔係話無用到tree search , 但係去到最後埋尾先會用,而且只係輔助

實際上視覺網絡神經先係主菜
neural network就係regression of regressions , 將一d raw input重新演繹為一堆關係parameters存低,所以你某程度上唔可以話佢係記低所有部法,因為佢無記過任何部法,佢係將整個棋盤局勢以視覺神經網絡轉化為自己既logic,無招勝有招

所以有d似人類捉棋既直覺,大勢觀,“睇型”
用大勢觀去搵落子點,再用tree search confirm
2017-07-30 02:06:04
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。
2017-07-30 02:08:34
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。

“個function"係指f(x), 唔係講個loss function
2017-07-30 02:10:45
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn
2017-07-30 02:13:16
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn

一直都係primary既所謂ai
2017-07-30 02:46:01
想問吓點解開局要諗咁耐
常見開局都係幾種,應該可以秒落

甚至第一步都要等


係tree searching嘅角度,第一步係最多野要計,因為每一步會爆下面N咁多個可能性出黎,因為係樹頂
相反如果玩到中後期,已經差唔多去到樹底,冇咩其他可能性,咁就冇咩計,好快計到

仲係唔明睇返井字過三關圖可能你會有新領誤

第一步如果alphago落a點,咁應該係最好
點解第二局alphago有機會落其他,如b點

每一步都最優咪矛盾囉???
2017-07-30 06:43:18
唔係話無用到tree search , 但係去到最後埋尾先會用,而且只係輔助

實際上視覺網絡神經先係主菜
neural network就係regression of regressions , 將一d raw input重新演繹為一堆關係parameters存低,所以你某程度上唔可以話佢係記低所有部法,因為佢無記過任何部法,佢係將整個棋盤局勢以視覺神經網絡轉化為自己既logic,無招勝有招

所以有d似人類捉棋既直覺,大勢觀,“睇型”
用大勢觀去搵落子點,再用tree search confirm


你岩 AlphaGo的確係用CNN將一D特別pattern記低,例如係圍棋入面嘅"眼","點","淨活",對殺呢D,但係學識睇"眼"之後點用?都係靠睇人類棋譜去決定如果遇上"眼"點行下一步

所以如果靠單一神經網絡去落棋,只係模仿人類,並沒有自己嘅步法
我係大結局之訓練篇有講過,用SL Policy Network就可以直接捉棋,但行為只會係人類高手行為,永遠冇避法超越人類

呢個亦係NN入面其中一個極大難題over training,意思係個神經網絡受過度訓練,output只係模仿training data,遇上新局面根本無法應付

所以我唔係幾同意tree search係只係輔助
AlphaGo 有4套神經網絡再以MCTS巧妙地將4套神經網絡配合運作,解決左永遠只係模仿人類呢個問題,令AlphaGo真正有自己步法

MCTS係AlphaGo入面作用你好大
只不過大部分人都覺得NN好高深,所以先有MCTS係輔助呢個錯覺
2017-07-30 06:45:12
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


一睇巴打呢個留言就知你係同類IT狗啦
2017-07-30 06:49:08
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn


同感
意識同感情根本有排都未會出現
之前睇文都係話研究緊點去訓練AI有真正嘅邏輯思維
2017-07-30 06:54:39
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn


同感
意識同感情根本有排都未會出現
之前睇文都係話研究緊點去訓練AI有真正嘅邏輯思維

禁其實模擬意識同感情主要既問題係咪因為意識同感情唔係數字, 姐係high-dimensional 同ranking 既問題? 所以先"未必"禁易做到?
2017-07-30 06:57:58
想問吓點解開局要諗咁耐
常見開局都係幾種,應該可以秒落

甚至第一步都要等


係tree searching嘅角度,第一步係最多野要計,因為每一步會爆下面N咁多個可能性出黎,因為係樹頂
相反如果玩到中後期,已經差唔多去到樹底,冇咩其他可能性,咁就冇咩計,好快計到

仲係唔明睇返井字過三關圖可能你會有新領誤

第一步如果alphago落a點,咁應該係最好
點解第二局alphago有機會落其他,如b點

每一步都最優咪矛盾囉???


概念不正確,罰你由頭到尾睇多次
首先AlphaGo係冇可能行到一步叫"最好"嘅棋,佢只係行一步最有可能係"最好"

另外,AlphaGo係用MCTS決定行邊一步嘅時候我咪話有D公式去計行邊步嘅,係公式入面其實設計到AlphaGo行棋嘅時候唔會永遠行死同一個方向,有一定機會率去探索其他步,廢事比人睇穿
2017-07-30 07:04:43
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn


同感
意識同感情根本有排都未會出現
之前睇文都係話研究緊點去訓練AI有真正嘅邏輯思維

禁其實模擬意識同感情主要既問題係咪因為意識同感情唔係數字, 姐係high-dimensional 同ranking 既問題? 所以先"未必"禁易做到?


呢個問題我唔係好識答 亂黎試下啦
其實人類大腦入面神經元之間都係靠有訊號同冇訊號黎到溝通,姐係1同0 (有待醫學界巴打確認 )

咁電腦界嘅神經網絡其實都係想模擬返人腦情況,所以個人認為同係咪數字無關,最重要係根據未完全了解到人腦嘅運作,所以做唔到
2017-07-30 07:11:42
要點先學到你個程度?我淨係自學咗少少去到comp nero


https://www.youtube.com/watch?v=NfnWJUyUJYU

史丹福大學2016年有關Neural Network嘅一個course
睇哂1至11集又明哂的話,程度已經高過我

利申:睇哂,但我太廢,後面明唔哂
2017-07-30 07:15:45
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn


同感
意識同感情根本有排都未會出現
之前睇文都係話研究緊點去訓練AI有真正嘅邏輯思維

禁其實模擬意識同感情主要既問題係咪因為意識同感情唔係數字, 姐係high-dimensional 同ranking 既問題? 所以先"未必"禁易做到?


呢個問題我唔係好識答 亂黎試下啦
其實人類大腦入面神經元之間都係靠有訊號同冇訊號黎到溝通,姐係1同0 (有待醫學界巴打確認 )

咁電腦界嘅神經網絡其實都係想模擬返人腦情況,所以個人認為同係咪數字無關,最重要係根據未完全了解到人腦嘅運作,所以做唔到

Sorz, 我問得衰. 我應該問既係 - 如果有方法可以張感情 reduce 落numerical mapping. 禁以上既optimization 就可以用. 姐係其實做到chess 既optimization 同感情既optimization 係一樣. 但個大前提係個個感情 mapping 暫時唔存在, 所以現行方法未做到有關方面既野. Ching, 請問岩唔岩? thx
2017-07-30 07:35:15
留名
2017-07-30 07:37:47
其實呢啲ai 全部都係fit緊一個function,
f(x)=y
x is input, y is output
用google translate做例子,x= I go to school by bus, y= 我搭巴士返學

你要部電腦fit 到個function 出黎,咁你要話佢聽以往入啲x,會出啲點既y, 不同既x 同y 就係training data

電腦點衡量個function fit 得好唔好, 就要靠人define 個loss function 俾佢

個function 可以係linear regression, support vector machine, neural network, dicision tree, 咩野都得,但optimize之後個效果都唔同,就似你用polynomial 定sine cosine function 去fit 條curve 咁,效果會唔同。

以前nn一般用sigmoid 做基本unit, 衣家用relu or tanh。咁nn呢種結構係咪可以砌到晒所有不同既function? 答案是肯定的,根據universal approximation theorem, 理論上一層layer夠多unit 已經可以。


所以d人係咁話skynet呀好危險呀
其實都幾好笑
唔係話有意識既ai唔恐怖
而係而家既所謂ai仍然只係純數學公式
一種optimization
根本未有模擬到意識既nn


同感
意識同感情根本有排都未會出現
之前睇文都係話研究緊點去訓練AI有真正嘅邏輯思維

禁其實模擬意識同感情主要既問題係咪因為意識同感情唔係數字, 姐係high-dimensional 同ranking 既問題? 所以先"未必"禁易做到?


呢個問題我唔係好識答 亂黎試下啦
其實人類大腦入面神經元之間都係靠有訊號同冇訊號黎到溝通,姐係1同0 (有待醫學界巴打確認 )

咁電腦界嘅神經網絡其實都係想模擬返人腦情況,所以個人認為同係咪數字無關,最重要係根據未完全了解到人腦嘅運作,所以做唔到

Sorz, 我問得衰. 我應該問既係 - 如果有方法可以張感情 reduce 落numerical mapping. 禁以上既optimization 就可以用. 姐係其實做到chess 既optimization 同感情既optimization 係一樣. 但個大前提係個個感情 mapping 暫時唔存在, 所以現行方法未做到有關方面既野. Ching, 請問岩唔岩? thx


正所謂感情無分對錯
就算可以將感情轉成一堆數字,咁何謂正確嘅感情呢
鐘意一個人係冇分對與錯嫁
冇絕對正確嘅感情點做optimization呢
所以感情呢樣野真係好高深
你試想下點解你會鐘意一個人,點解你會開心
令你開心嘅野係咪可以令其他人都開心
所以話人與人之間嘅關係就最難攪
點去訓練感情比感情 mapping更難
吹水台自選台熱 門最 新手機台時事台政事台World體育台娛樂台動漫台Apps台遊戲台影視台講故台健康台感情台家庭台潮流台美容台上班台財經台房屋台飲食台旅遊台學術台校園台汽車台音樂台創意台硬件台電器台攝影台玩具台寵物台軟件台活動台電訊台直播台站務台黑 洞