日本免费全黄少妇一区二区三区-高清无码一区二区三区四区-欧美中文字幕日韩在线观看-国产福利诱惑在线网站-国产中文字幕一区在线-亚洲欧美精品日韩一区-久久国产精品国产精品国产-国产精久久久久久一区二区三区-欧美亚洲国产精品久久久久

100:0,新AlphaGo放棄了人類?

01、2017年10月19日 , 谷歌子公司DeepMind發(fā)布了AlphaGo的新版本 。很多人知道AlpoaGo是一個人工智能程序,卻不知道它其實是一個家族 , 早期戰(zhàn)勝韓國選手李世石的是AlphaGo Lee 。在烏鎮(zhèn)擊敗世界冠軍柯潔的是AlphaGo Master 。本次發(fā)布的是AlphaGo Zero(阿爾法零) , 它經過3天的訓練便以100:0的戰(zhàn)績擊敗了他的哥哥AlphoGo Lee , 經過40天的訓練便擊敗了它的另一個哥哥AlphoGo Master 。

100:0,新AlphaGo放棄了人類?


AlphaGo Zero與之前版本相比,最大的區(qū)別在于,它不再依靠人類的指導來成長 , 即之前的AlphaGo Lee是依賴于人工錄入的大量棋譜來幫助其學習如何下棋,說白了,它是在人的指導下學習,可以理解為是人類千年圍棋經驗教出的學生 。
而AlphaGo Zero使用了強化學習算法,即不再依賴任何棋譜,編程人員輸入圍棋基本規(guī)則后,不再進行任何教導,完全由其自己進行摸索 , 總結走棋方法,相當于人工智能完全按照自己的方法學習 。AlphaGo Lee完敗于摒棄了人類經驗的AlphaGo Zero,這說明人類的經驗可能誤導了AlphaGo Lee,進而限制了它的發(fā)展 。
AlphaGo Zero的行棋方式在開局和收官階段,與人類選手有較大的相似之處,而盤中的行棋風格的確與人類選手和之前版本的AlPhaGo有較大不同 , 而正是這種不同讓其可以在100次與AlphaGo Lee的交戰(zhàn)中立于不敗,換個說法,如果當初AlphaGo Lee沒有拜人類為師 , 而是向機器學習,那么對于擁有更強計算能力的AlphaGo Lee來說,勝負還未可知 。
除了零經驗學習外 , AlphaGo Zero的另一大特點是將之前版本AlphaGo的兩個神經網絡融為一體,在之前版本的AlphaGo上,如何走棋是由“策略網絡”和“價值網絡”兩個神經網絡來計算如何行棋的 , 即首先由“策略網絡”利用之前累積的經驗,判斷在當前棋型下哪些位置適合行棋,之后由“價值網絡”對在這些位置行棋后的種種可能進行模擬,計算勝率,最終選擇出行棋位置 。
而AlphaGo Zero將二者融為了一體 , 對之前兩個網絡的特征提取等模塊進行了共用,可以在計算出可能行棋的位置時便給出相應的“勝率”,大幅提高效率 , 減少了訓練所需的時間 。這也是AlphaGo Zero在訓練了三天就打敗了訓練了幾個月的AlphaGo Lee的主要原因之一 。
人工智能不僅是計算機科學領域發(fā)展的制高點,在所有行業(yè)都具有無限潛力和應用價值,目前世界各國普遍看好,人工智能技術將成長為下一次技術革命契機 。即便最終人工智能沒有達到革命級別的顛覆程度,AI已經在逐漸改變我們的生活 。
以往人工智能的進步都是建立在軟件與硬件同步發(fā)展的基礎上 , 神經網絡算法最早在上個世紀中葉就被提出,然而受限于計算能力,神經網絡算法一直發(fā)展緩慢 。
之后隨著硬件計算速度的不斷提高,已有的軟件算法不斷被實現并改進,改進的算法對硬件要求更高,從而進一步促進了硬件的發(fā)展,而AlphaGo Zero的出現完全建立在算法更新的基礎上 。
前一版本的AlphaGo需要在48個TPU(谷歌專為加速深層神經網絡運算能力而研發(fā)的芯片 , 一塊成本即達500萬美元)上進行幾個月學習,而AlphaGo Zero只需要4個TPU加上幾天的時間便可完成學習 。這種零經驗學習能力非常適合在蛋白質折疊和其它缺少樣本的醫(yī)療領域進行應用,可以很好地解決因缺少試驗樣本而導致研究進展緩慢的問題 。未來的相關研究中完全可以輸入規(guī)則后利用AlphaGo Zero的能力進行模擬,最后利用有限的樣本進行驗證即可 。
AlphaGo逐漸升級之路
故事講到這里,實在不得不佩服谷歌深厚的技術實力與精明的商業(yè)頭腦 。AlphaGo從誕生伊始 , 就得到了deepmind團隊的精心包裝,仔細回想起來,可謂是“城里套路深” 。

推薦閱讀