近年 AI 堀起的其中一個契機,就是 Google 旗下的 DeepMind 利用 AlphaGo 在圍棋場上以壓到性的實力勝過人類世界冠軍,並在研究之後衍生出自我學習的 GANs 自我學習神經網絡,這不只有在賽局上的意義,更加是向全世界展示人工智能的潛力。最近他們的新作品 AlphaStar 在昨天晚上向幾位《星海爭霸2》(Starcraft 2) 的排名者挑戰,獲得 10:1 的壓到性勝利。
這意味著什麼?AI 在更複雜的賽局中也能發揮出與人類精英同樣的「智能」,甚至在人類之上!
Google 旗下的 DeepMind 開發出專為 Starcraft II 比賽而學習的 AlphaStar ,在昨天 Youtube 及 Twitch 的直播當中,他們連贏了 10 場,在最後一場專業玩家 Grzegorz “MaNa” 勉強擊敗 AI ,但須要留意的是在最後一場用的是從來沒有跟專業用家對戰的全新模型,也就是說 DeepMind 在那一場有「實驗」的目的。
對於人工智能發展來說,這是一個很大的進展,根據 DeepMind 所說,因為 Starcraft 與之前挑戰的 Atari 及圍棋不同,一來它不是一個「資訊完全賽局」,在戰爭迷霧當中 AI 也只能知道部份的資訊,同時它講求的是即時反應和運算速度,並沒有像圍棋一樣有「思考時間」,加上每分鐘需要的微操作需要幾百次,對於人類來說也是一件難事,要訓練出精準的模式去預測多種變種,甚至進行長期預判,就更加難了。
在 AlphaStar 的設計方面,團隊亦加入了不少想法。在去年底的對賽之中, AlphaStar 完全不敵頂級玩家,專家亦在敗北的過程中找到了一些向方。現時 AlphaStar 在「微操作」方面大幅加強,同時它們因為利用電腦圖像感應系統,可以在小地圖上面分辨出戰場上的每一個動態,但人類就需要移動位置進行確認;同時,因為能更精準的進移操作,AlphaStar 在設計方面是不需要像人類一樣每分鐘進行超高次數的操作,講究的是以最少、最準確的方式贏得資源。
同時值得留意的是雖然對賽的 TLO 已經是有排名的頂級玩家,但仍未是世界冠軍的標準,加上賽場、種族的規格都有限定,暫時不清楚對上世界冠軍級玩家 AlphaStar 是否仍能有如此的發揮。
無論如何, AI 專家們都認為這是人工智能進展的一大步,在克服了種種的困難之後 AI 可以對應一部份的「不完全資訊賽局」,同時懂得利用斥侯進行探索以獲得更多的資訊,雖然仍然限制在遊戲空間,但這是一個極大的改變,意味著有很多實際生活的例子可以利用接近的原理解決。
話說回來,AlpahStar 的訓練時間大約是多少呢?DeepMind 發言人指在遊戲中訓練模型的時間,大約是人類的 200 年,他們是利用高速運作去加速進度。這應該是人類不可能「學習時間」了吧?隨著模型及處理器的發展,將來可能有更精準的訓練,只是人類真的會像科幻電影一樣被淘汰嗎?這個還不太好說。
只是一些稍為繁複的工作,預期在將來可以交給 AI 了。
引用來源:The Verge
這篇文章 目標是世界冠軍!DeepMind 全新 AlphaStar 差點在《星海爭霸2》完爆人類了 最早出現於 TechApple.com。