唔係話無用到tree search , 但係去到最後埋尾先會用,而且只係輔助
實際上視覺網絡神經先係主菜
neural network就係regression of regressions , 將一d raw input重新演繹為一堆關係parameters存低,所以你某程度上唔可以話佢係記低所有部法,因為佢無記過任何部法,佢係將整個棋盤局勢以視覺神經網絡轉化為自己既logic,無招勝有招
所以有d似人類捉棋既直覺,大勢觀,“睇型”
用大勢觀去搵落子點,再用tree search confirm
你岩
AlphaGo的確係用CNN將一D特別pattern記低,例如係圍棋入面嘅"眼","點","淨活",對殺呢D,但係學識睇"眼"之後點用?都係靠睇人類棋譜去決定如果遇上"眼"點行下一步
所以如果靠單一神經網絡去落棋,只係模仿人類,並沒有自己嘅步法
我係大結局之訓練篇有講過,用SL Policy Network就可以直接捉棋,但行為只會係人類高手行為,永遠冇避法超越人類
呢個亦係NN入面其中一個極大難題over training,意思係個神經網絡受過度訓練,output只係模仿training data,遇上新局面根本無法應付
所以我唔係幾同意tree search係只係輔助
AlphaGo 有4套神經網絡再以MCTS巧妙地將4套神經網絡配合運作,解決左永遠只係模仿人類呢個問題,令AlphaGo真正有自己步法
MCTS係AlphaGo入面作用你好大
只不過大部分人都覺得NN好高深,所以先有MCTS係輔助呢個錯覺