03.07 以圍棋勝負來判定人工智能高低能否可行?

馮忠澤


先給一個肯定的回答,就目前人工智能的發展來說,如果以圍棋的勝負來判定其能力的高低是可行的。

咱們可以先看1997年IBM公司的人工智能“深藍”它在國際象棋上擊敗了國際象棋大師卡斯帕羅夫。

根據這位大師的回憶,在1985年的時候,他戰勝阿納託利·卡爾波夫之後成為世界國際象棋冠軍。在那一年,他在德國漢堡與世界上最先進的32臺象棋電腦展開了一場車輪戰。比賽結果全盤獲勝。然而,僅僅12年後的1997年,大師需要拼盡全力對戰一臺計算機,當時的《新聞週刊》把這場比賽稱為“人腦的最後防線”。那一年象棋計算機在科技的加持下,實力大增;而大師正好又是國際象棋冠軍,於是代表全人類與機器進行了那場至今仍然家喻戶曉的對決。他與IBM“深藍”計算機下了兩盤棋,一勝一敗。

大師將計算機的勝利歸功於“深藍”計算機的創造者,許峰雄(電腦“深藍”的設計者,出生於中國臺灣,畢業於臺灣大學和卡內基·梅隆大學),並向他和他的團隊由衷致敬。因為機器的勝利也是人類的勝利(因為人類是機器的締造者),當時的“深藍”能夠在一秒鐘內分析出驚人的200萬個棋位。

但那個時候有人說,圍棋是人工智能無法攻克的壁壘,是因為圍棋計算量實在是太大了。選擇圍棋除了這個,還有一個原因。

1、對於計算機來說,每一個位置都有黑、白、空三種可能,那麼棋盤對於計算機來說就有3的361次方種可能,而宇宙的原子只有10的80次方。下圖是圍棋的複雜程度卷積。

但令人震驚的是在2016年3月份,Alpha Go以4-1的比分擊敗李世石。而Alpha Go 的算法也不是窮舉法,而是在人類的棋譜中學習人類的招法,不斷進步,就是我們說的機器學習。而它在後臺,進行的則是勝率的分析,這跟人類的思維方式有很大的區別,它不會像人類一樣計算目數,而是勝率,它會將對手的信息和招式完全記錄下來,如果對手沒有新的招式來應對,輸的概率是非常之大。

2、圍棋作為一種開啟智力的“遊戲”,已有3000多年的歷史,人機對弈也有近50年曆史。《大英百科全書》中說:“圍棋,公元前2356年起源於中國。” 自古以來,圍棋備受帝王、將軍和知識分子、神童的喜愛,在國外包括愛因斯坦、約翰納什和圖靈等都是圍棋的愛好者。圍棋的英文就是“Go”,所以人家其實不叫阿爾法狗(只是咱們中文的諧音),真正的叫法是阿爾法圍棋。

阿爾法圍棋有哪些特別之處?

阿爾法圍棋是一箇中央處理器(Central Process Unit,CPU)和圖形處理器(Graphic Process Unit,GPU)一起工作的圍棋智能機器人。

阿爾法圍棋以神經網絡、深度學習、蒙特卡洛樹搜索法為核心算法。系統由四部分組成:1、策略網絡(Policy Network),以當前局面為輸入,預測下一步的走法;

2、快速走子(Fast Rollout),目標和策略網絡相似,在適當犧牲質量的條件下的加速走法;

3、價值網絡(Value Network),以當前局面為輸入,估算勝率。

4、蒙特卡洛樹搜索(Monte Carlo Tree Search),把上述三個部分整合起來,形成完整的系統。

早期的阿爾法狗有176個GPU和1202個CPU。GPU能夠通過內部極多進程的並行運算,取得比CPU高一個數量級的運算速度。

阿爾法圍棋(AlphaGo)是通過兩個不同神經網絡“大腦”合作來改進下棋。這些“大腦”是多層神經網絡,跟那些Google圖片搜索引擎識別圖片在結構上是相似的。它們從多層啟發式二維過濾器開始,去處理圍棋棋盤的定位,就像圖片分類器網絡處理圖片一樣。經過過濾,13個完全連接的神經網絡層產生對它們看到的局面判斷。這些層能夠做分類和邏輯推理。

第一大腦:落子選擇器 (Move Picker)

阿爾法圍棋(AlphaGo)的第一個神經網絡大腦是“監督學習的策略網絡(Policy Network)” ,觀察棋盤佈局企圖找到最佳的下一步。事實上,它預測每一個合法下一步的最佳概率,那麼最前面猜測的就是那個概率最高的。這可以理解成“落子選擇器”。

第二大腦:棋局評估器 (Position Evaluator)

阿爾法圍棋(AlphaGo)的第二個大腦相對於落子選擇器是回答另一個問題,它不是去猜測具體下一步,而是在給定棋子位置情況下,預測每一個棋手贏棋的概率。這“局面評估器”就是“價值網絡(Value Network)”,通過整體局面判斷來輔助落子選擇器。這個判斷僅僅是大概的,但對於閱讀速度提高很有幫助。通過分析歸類潛在的未來局面的“好”與“壞”,阿爾法圍棋能夠決定是否通過特殊變種去深入閱讀。如果局面評估器說這個特殊變種不行,那麼AI就跳過閱讀。

阿爾法圍棋(AlphaGo)此前的版本,結合了數百萬人類圍棋專家的棋譜,以及強化學習進行了自我訓練。後來它又有了個弟弟AlphaGoZero,其能力則在這個基礎上有了質的提升。最大的區別是,它不再需要人類數據。也就是說,它一開始就沒有接觸過人類棋譜。研發團隊只是讓它自由隨意地在棋盤上下棋,然後進行自我博弈。

據阿爾法圍棋團隊負責人大衛·席爾瓦(Dave Sliver)介紹,AlphaGoZero使用新的強化學習方法,讓自己變成了老師。系統一開始甚至並不知道什麼是圍棋,只是從單一神經網絡開始,通過神經網絡強大的搜索算法,進行了自我對弈。隨著自我博弈的增加,神經網絡逐漸調整,提升預測下一步的能力,最終贏得比賽。更為厲害的是,隨著訓練的深入,阿爾法圍棋團隊發現,AlphaGoZero還獨立發現了遊戲規則,並走出了新策略,為圍棋這項古老遊戲帶來了新的見解。

一個大腦:AlphaGoZero僅用了單一的神經網絡。AlphaGo用到了“策略網絡”來選擇下一步棋的走法,以及使用“價值網絡”來預測每一步棋後的贏家。而在新的版本中,這兩個神經網絡合二為一,從而讓它能得到更高效的訓練和評估。

神經網絡:AlphaGoZero並不使用快速、隨機的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,來預測哪個玩家會從當前的局面中贏得比賽。相反,新版本依靠地是其高質量的神經網絡來評估下棋的局勢。


趣物聯


首先我們要知道什麼是人工智能,人工智能即AI,它是研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。 人工智能是計算機科學的一個分支,它企圖瞭解智能的實質,並生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。

人工智能自誕生以來,隨著時代的發展和科學的進步它的理論和技術越來越成熟,並且其應用的領域也在不斷擴大,但是卻始終沒有一個統一的概念。

人工智能是對人的意識、思維的信息過程的模擬。雖然人工智能不是人本身的智能,但是卻能像人那樣思考、也可能超過人的智能。但是這種會自我思考的高級人工智能還需要科學理論和工程上的突破。

前些年因為谷歌公司的人工智能機器人阿爾法狗連續擊敗世界上最頂級的圍棋大師,人工智能會不會超過人類智能這樣的話題引起了社會各界的廣泛討論,而我覺得以阿爾法狗打敗圍棋大師這樣的結果來判定人類會被人工智能超過是不可能的,因為人的思維是會變的,而機器人的思維是死的,他只能依靠數據做出反應,而且一臺機器不管有多隻能它終究還要人去操作,人工只能打敗了人類只能說明人工智能的水平已經很高了,並不能說明他已經超過人類了






大鷹說球


看人工智能的階段,你必須先要知道你所謂的人工智能發展到哪個階段,在人工智能的初期,ai只需要通過複雜的基礎算法應對發生的狀況,用圍棋的勝負可以判斷出ai對於基礎算法的掌握,但是人工智能的中後期是ai的學習能力,一個優秀的ai絕對不是隻會下下圍棋這麼簡單,他需要承擔更多的內容,就不適合以圍棋的勝負做標準。



出國看病專業人更保險


簡單的講,以圍棋的勝負即軟件是否能夠戰勝人來判定人工智能的高低是可行的。因為之前這些程序棋力都是比較差的,而今天可以戰勝全世界所有頂尖高手,確實是進步了。

如果認真些講,其中還有很多問題。其一,現在最先進的程序仍然被認為沒有智能。其二,目前最先進的圍棋程序阿爾法元,能夠自學圍棋,運用的是“深度學習”,而深度學習,實質是一種統計學的高級別算法。很多人工智能方面的專家認為:深度學習把人工智能領進了死衚衕。也就是說,這個方法今後難以進步了。這樣看來圍棋程序還沒有“觸及到真正的智能”,就已經前途暗淡。

真正的智能運用在“不完全信息博弈領域”,圍棋象棋都難以讓人們的智慧難以充分發揮。

敬請關注奇襲象棋!








奇襲象棋習兵法克AI


這個問題我來說說我的觀點:我覺得是可以的

我不懂圍棋,所以就簡單的說說吧

圍棋非常複雜,變化數也不可能窮盡,對於現在的AI來說,完全不是問題。

圍棋的段位高低就是靠比賽勝負判定,而AI可以囊括數千名大師的走法,

就像《天龍八部》裡面的吸星大法,吸納了很多人的功力,最終達到無敵的境界

具體來說:

Alpha Go是根據大量的對弈數據以及一些算法來實現的,它的優勢在於計算力和記憶力。

AI在圍棋上實際就是反覆推演人類學習過程,反覆和自己在下棋,再想辦法戰勝自己,無時無刻不在進步。

可以說時間越久人類越不可能戰勝。

所以我總結幾個結論:

1.人工智能必將贏得傳統行業的人類,在很多領域機器已經超過了人類。

2.圍棋的未來既然人工智能可以贏了人類,那麼圍棋就不會那麼高深了

人工智能的贏,會改變很多家長對後續圍棋孩子的培養的熱情,可能會出現更多孩子會喜歡圍棋

3.圍棋賽未來規則也會變了。

比如人類的圍棋賽自然是隻有人類參加

非人類的比賽,可以讓人工智能機器A跟人工智能機器B兩個玩

4.人工智能目前還剛開始,但是已經是一個里程碑,未來人工智能的水平肯定會越來越高的

5.當然了,圍棋勝負只能在一定程度上反應人工智能高低

人工智能的種類,功能是多樣化的,比如自動駕駛,交通指揮,醫療,文學創作等等,涉及的領域太廣泛了

圍棋勝負只是裡面的一小部分的領域而已

我們在圍棋上被人工智能打敗,對人類來說也並不是壞事

人工智能可能亦師亦友,會讓我們不斷的學習改變

最後開個玩笑:

祁同偉說:我要勝天半子。

天說:你就吹牛逼吧,你連電腦都贏不了。

希望對你有所幫助~




52赫茲實驗室


  • 在目前人工智能發展階段,用圍棋勝負來判定不同科技公司研發的人工智能水平,是可行的;

  • 發展到後期,大部分研發出來的人工智能,都可以完成該判定標準,就失去了意義,需要使用更先進的判定方式。

為什麼這麼說?

首先我們來了解下人工智能的發展階段:

人工智能發展到現在,已經經歷了三個階段:

  • 計算智能:解決數據存儲、計算的問題;

  • 感知智能:電腦實現能聽會說,能看會認;

  • 認知智能:實現理解、思考、學習能力,真正意義上的人工智能

目前,我們還走在認知智能的初期階段,現在的的AI人工智能,就像一個嬰兒,已經開始有初步的大腦了,但是還缺少“知識”,缺少“知識”,體現出來的能力就比較弱智能。在這個階段,需要優先讓人工智能擁有大數據深度學習的能力。

而圍棋這個遊戲,可以很好地檢測目前階段人工智能深度學習能力。

有一個基本共識:圍棋是人類發明的最複雜也是最美的遊戲。圍棋贏的方式是“圈地”,子越下越多,地多者勝。整個下棋過程,落子的可能選擇非常非常多。象棋那種傳統的窮舉方式,已經無法應對如此複雜的下棋方式了。

為了應付這種類似的複雜情況,需要使用“深度學習”技術,深度學習是機器學習的一個分支,對於待解問題,無需編寫任何專門的程序代碼,只需要輸入數據,算法會在數據之上建立起它自己的邏輯——人工智能通過“深度學習”大數據,可以進行智能的進化。

通過最新的人工智能,谷歌的AlphaGo以千年來眾多棋手在圍棋上積累的經驗棋譜為基礎,進行深度學習,不斷完善,又通過自我模擬比賽,默默地提高自己的段位,達到了人類象棋王者的水平,最終取得勝利。


萬物智聯


不可行。

算法訓練的數據、網絡結構、目的各不相同,以圍棋作為評價標準未免太滑稽了。圍棋使用的是強化學習,利用了優化過的蒙特卡洛樹搜索方法,而且需要經過大量的對弈數據或者自我對弈訓練。如此複雜的方式需要大量數據存儲和高性能的計算機,而顯然對於圖像識別和簡單NLP的任務來說並不需要這麼複雜的算法。

這種評價標準就類似於把所有的奧運會參賽選手叫到一起說我們來比跳高,給你們排個名次,你覺得合理嗎?


分享到:


相關文章: