而這樣的新式人工智慧系統所需要的並不是持續增加正確的素材,反而是要挖掘它所辨識錯誤的素材,並告知系統它犯了錯誤,此時系統會將這些錯誤素材重新拆解分析,並找出錯誤點,為系統邏輯持續修正。

這個部分在去年 NVIDIA GTC 時, Google 的資深科學家暨工程師 Jeff Dean 在主題演講就介紹過深度學習系統的魅力;在新的深度學習系統,人工智慧不再是從資料庫中撈對應的資料,而是餵給它大量素材,並告訴它素材所代表的意義,系統會去分析素材的共同元素,並自行建立邏輯,在面對新的資訊時透過建立的邏輯去判斷。





不過近年因為異質運算硬體被業界接受,運算效能大幅提升,基於機械神經網路的深度學習平台成為新一代人工智慧的主流,不同於過去見招拆招的做法,深度學習的人工智慧一言以蔽之就是"同樣的招式對聖鬥士沒有用的",也就是全新的人工智慧系統能夠從錯誤中重新學習,不再犯下相同的錯誤。

當然畢竟深藍是那個時代的超級電腦,能夠容納夠多的邏輯庫,除非遇到邏輯庫中沒有的情況,否則人工智慧仍可找到因應的辦法,但邏輯庫的建立仰賴人工加入與修正,電腦本身並沒有所謂的學習能力,也只能見招拆招,但如果被找到破綻,在修正邏輯前就會持續被同樣的手法擊破。

Google AlphaGo 也就是這樣的一套系統,透過學習基礎的圍棋理論,不斷進行實戰驗證,而後持續使邏輯加強,使其邏輯日益完整;雖然以現在人工智慧系統的演算力其實與真實人類還有明顯的落差,但是相較於人類的大腦需要處理生活種種事物,系統僅需針對單一的事情進行處理,也不受身心狀況影響,故更可做出正確的判斷。



內容來自YA車貸HOO新聞

也因此,目前各車廠與系統廠正在開發的自動駕駛系統也是藉由深度學習系統進行開發,不過畢竟行車駕駛相較上面短片展演的打磚塊、太空侵略者等 Atari 早期的遊戲有較多的複雜因素,且汽車可沒辦法接關重來,故開發自動駕駛平台都會先預載一套預先寫好的基礎邏輯,把自動駕駛車放到實際環境則是為了驗證成果。

過去的人工智慧是在系統所預設的邏輯內找尋對應方式,故需要給予超級電腦足以應對各種情況的邏輯庫,它才能夠持續變強,但問題在於過去的人工智慧只是按表操課,宛如早期的遊戲的 AI 一樣會有規律與破綻,也就是會有一定的套路。

當時 Jeff Dean 舉的例子也很簡單易懂,當時利用 Google 所開發的深度學習系統試玩 Atari 的一系列經典遊戲,例如打磚塊,一開始只讓系統知道怎麼操作、遊戲的原則,讓系統自行試玩,一開始系統當然很笨,就跟剛接觸遊戲的新手一樣只知道要追著球跑,不過隨著玩的時間越長,系統持續修正邏輯之後,恐怕少有人類玩家能夠達到那樣的水準。

今天科技業界發生一件有趣的大事,就是由 Google 的 AlphaGo 人工智貸款慧與韓國棋士李世石的世紀對決,無論今天最終是人類獲勝或是電腦獲勝,都是相當值得玩味的。不同於當年 IBM 深藍超級電腦與俄羅斯國際象棋棋王卡斯帕羅夫的對決, AlphaGo 是以更新穎的機械神經網路架構的深度學習系統所打造的人工智慧,變數也會更多。



雅虎科技新聞: 同樣的招式對聖鬥士是沒有用的!閒聊關於 Google AlphaGo 深度學習平台

無論這次的對弈結果如何,對於 AlphaGo 都是會持續進化的,畢竟 AlphaGo 不會因為挫敗而情緒不佳,也沒有人類的羞恥心,更不用說輸了要再次挑戰復仇之類的,對系統平台不過就是一場驗證邏輯的過程而已,即便輸了,下次再跟它對戰,依舊也只會更難纏而已。

你或許會喜歡

辦4G送荷蘭公主果汁機

299上網吃到飽即將結束

Source: 同樣的招式對聖鬥士是沒有用的!閒聊關於 Google AlphaGo 深度學習平台

也許你還會想看


新聞來源http企業貸款s://tw.news.yahoo.com/雅虎科技新聞-同樣的招式對聖鬥士是沒有用的-閒聊關於-google-alphago-172400060.html


0B6C6E9C2F33345F
arrow
arrow

    f51lb9vzdd 發表在 痞客邦 留言(0) 人氣()