
5月23日AlphaGo2.0版本在人機圍棋比賽中以1/4子的微弱優勢戰勝了柯潔,一方麵繼續彰顯了人工智能的強大,但也讓人們對AlphaGo和人工智能有了新的認識。先說出結論,再看分析。
1.在圍棋這個項目上AlphaGo目前走在了人類的前麵,但並沒有完全攻克圍棋這項運動。它隻是通過深度學習找到了一個比人類認識更優的解,但不是最優解。最優解無法找到,即便用盡地球上所有的資源。從專業的角度來講,就是用深度學習去逼近了一個強化學習中的價值判斷函數,然後再跟蒙特卡洛搜索樹結合的方法(具體詳解可參看《鄭宇:一張圖解ALphaGo原理及弱點》,不再重複)。既然人工智能和人類都不能找到最優解,現在說哪一方已經完全徹底的失敗還早。
2. 人類也是在進步的,我們也不要低估了人類後天的快速(小樣本)學習能力,這點AlphaGo基於現在的學習方法還做不到。短期來看人獲勝概率小,但長遠來看(未來5-10年)人還有機會,因為人也有很強的學習能力,可以從少量跟AlphaGo的對弈的棋局中快速學習。而即便再給AlphaGo1億副棋譜,再添加一萬塊GPU,如果還是基於現有的學習體係,它進步的速度也終將放緩,因為新增的棋譜和計算資源相對於2x10171這個搜索空間來說隻是滄海一粟。我們對人腦的了解還遠不如對圍棋的認識,這裏麵還有很大的未知數。
3. 目前人類職業棋手跟AlphaGo的差距也就在一個貼目的水平,沒有大家想象的那麼大。其實這個貼目的差距(按中國標準7目半),在職業棋手看來,已經是非常大的差距了。很多職業高手,進入官子階段後發現自己還落後對方7-8目,就會主動投子認輸了。很多通過數子來決定勝負的比賽,輸贏往往都在1-2目之間(比如柯潔就輸給AlphaGo半目)。否則會被其他專業棋手笑話,自己落後那麼多都不知道,點空能力太弱了。
要能真正客觀、準確的看待這個問題急需要較強的人工智能專業知識,也需要一定的圍棋功底。下麵先糾正網上認知的一些誤區:
誤區一:AlphaGo可以讓人類頂尖棋手4個子,AlphaGo2.0可以讓上一個版本4-5個子。
要消除這個誤解,首先要跟大家普及一下圍棋知識:在圍棋裏“讓對方兩個子”和“贏對方2個子”有著天壤之別。這點對於下圍棋的人不用多說,但我今天才意識到,很多吃瓜群眾一直以為這就是一回事。難怪網上會流傳以上的錯誤言論。
讓對方兩個子: 在圍棋裏讓2子是說讓一方先在棋盤上放上2個棋子(棋子隻能放在星位),然後對方才開始走。這兩個子在對弈之初的價值巨大,對於專業棋手來講,每個棋子價值至少在10目以上(這是最保守估計了)。讓兩子相當於至少先讓出去對方20多目的地盤。由於棋盤是有限的,如果不能在後麵的比賽中,在有限的空間裏贏回這20多目,那就是讓子失敗了。而且讓子數越多,被讓方獲得的價值不單是線性增長的,因為子力之間會形成配合,獲取更大的利益。比如說,讓四子,其價值就可能遠不止40目了。
贏對方2個子:是指雙方下完後,贏的一方比輸的一方多出2個子。如果按照吃住對方一個子算兩目的方法來算,那2個子隻相當於4目。AlphaGo贏了柯潔1/4子,就相當於半目棋子而已。
所以“讓對方兩個子”和“贏對方2個子”不可同年而語。如果真的有圍棋之神存在(既他一定能找到最優解,我們人是沒有希望下過他的),一般頂尖專業棋手認為他們跟這個神的差距在讓2-3子之間。由於AlphaGo可以被證明不能保證找到最優解,所以他離神還有一定的距離。因此,說AlphaGo可以讓人類頂尖棋手4個子,這簡直就是天方夜談。
誤區二:AlphaGo也會下出一些明顯不好的招數,是因為他自我判斷形式占優,而放鬆了自身的要求。
AlphaGo的搜索策略就是優先對獲勝概率比較大的分支進行更多的深度搜索,這個策略在任何時候都不會改變,也不能改變。他不會覺得自己優勢了就下出緩手。下得不好的時候是因為其價值判斷本來就是一個近似,而且搜索空間也不能窮盡,得不到最優解,因此,有時估計還不錯的棋,其實不一定是真的最好的下法,AlphaGo出現這種不穩定狀況是正常的。這也是人類善存的希望所在。當然人類也有自身的弱點,如疲勞、情緒波動等,人也會判斷失誤。而且棋局很長,有些之前不太好的棋,經過後麵的變化(包括不是預料中的變化)有可能會變成好棋。所以,不是所有的錯誤,都會直接影響到比賽的結果。而且現在大家似乎有點怕AlphaGo了,即便是AlphaGo下出一招不好的棋,大家更多的是懷疑自己的水平(是不是我們沒看懂啊?),而選擇相信AlphaGo的“深謀遠慮“。
誤區三:AlphaGo可以不斷自學習,從新的棋局裏獲取經驗,快速提升自己。
AlphaGo的係統由於參數非常多,需要大量的數據來訓練,新增的幾幅棋譜對提高它的棋力起不到任何作用。而且AlphaGo在做參數調整時是針對一大批數據的整體優化,也必須對很多棋譜做批量處理,訓練時間非常長,不可能在很短時間內大幅提升自身的水平。即便是同一組訓練棋譜,參數調整方法不一樣也會訓練出棋力水平差異較大的係統。其實AlphaGo是通過自我對弈來生成很多棋譜,然後利用棋譜中的(兩個連續的)盤麵跟最後的勝負對應關係訓練出價值網絡來。這裏隻是借用了一下強化學習的框架來訓練深度神經網絡的參數而已,主要貢獻還是深度學習的近似能力帶來的(解決了傳統強化學習針對複雜環境和動作狀態無法求解的難題)。因此,AlphaGo並沒有大家想象的那種自我博弈就能自己不斷進步的能力。
誤區四:AlphaGo會故意放水輸掉一局比賽。
這個沒有可能。要想輸還不能輸的那麼難看和明顯,是一件非常難辦的事情,可能比贏棋還要難。在模型訓練好之後,AlphaGo能夠臨時改動的隻有在搜索部分投入的資源多少(搜索多大的空間)可以改動。縮減的太小,幾乎不會有太大變化,但如果縮減太多,就會下出一些非常低級的棋來。這點從技術角度來講很難把握。
誤區五:計算機的計算能力一定比人強,所以不要去跟AlphaGo比計算,應該把局麵簡單化,避免複雜的戰鬥。
AlphaGo依靠的是一種基於樹的搜索算法,遇到複雜局麵搜索空間變大,對未來輸贏的價值判斷也會變難。因此,人算不過來的複雜局麵,對AlphaGo來說也很困難。如果局麵太簡單,機器可以非常好的計算出比較優的解,人類棋手更加沒有希望。因此,把局麵弄複雜,人類棋手才有希望獲勝,雖然這個對人類也提出了更大的挑戰。
總結
基於人類目前對圍棋的認識和理解,現階段仍然會輸給人工智能。我並不是覺得柯潔有希望能夠贏得後麵的比賽,但人類也在進步,通過跟AlphaGo的對弈,人類也在重新認識圍棋。隻要人類的思想和文明在不斷進步,人就有可能在未來5-10年裏通過不斷的學習趕上當前的AlphaGo。當然,AlphaGo也會進步,但它還不是圍棋之神,也沒有攻克圍棋這個難題。如果現有的學習方法沒有全麵的革新,其進步的速度也會慢慢放緩。基於此考慮,人類還會有機會。當人們對圍棋有了更深入的了解之後,又會設計出更好的人工智能算法。兩者其實並不矛盾,相輔相成,互相促進,不管誰輸誰贏都是人類文明進步的體現。人類的智能也將始終走在機器的前麵,而不會被機器取代。
相關資訊
最新熱門應用
點點穿書安卓免費版
閱讀資訊67.39MB
下載
2017年駕考寶典
辦公學習191.97M
下載
2020作業精靈
辦公學習16.27MB
下載
海棠書城官方免費版
閱讀資訊63.19M
下載
得間小說免費2019
閱讀資訊55.84M
下載
2345天氣王舊版本2017
生活實用48.14M
下載
2345瀏覽器2019
係統工具45.23MB
下載
筆書閣app紅色版
閱讀資訊26.8M
下載
快讀免費新版本
閱讀資訊19.6M
下載
書耽網官方版
閱讀資訊18.7M
下載