熱門文章
港科大張潼教授最新發(fā)言:對人工智能發(fā)展的一些思考
發(fā)布時間:2019-04-23 分類:趨勢研究
2019 年 4 月 18 日,“新消費新動力——2019 年樂信合作伙伴大會”在深圳舉行,國際著名機器學習專家、香港科技大學教授張潼出席會議并發(fā)表主旨演講,在演講中他提到 AI 發(fā)展的關鍵要素,以及現(xiàn)在難以解決的問題,我們將來需要研究的方向,他的發(fā)言內(nèi)容整理如下,有刪減。
大家好!非常高興能夠在這個場合與大家分享 AI 的相關技術(shù)。我們現(xiàn)在站在了 AI 時代,AI 在很多場景中改變了行業(yè)。比如產(chǎn)生新的人機交互方式,這種產(chǎn)生從新的終端開始——由之前的電腦到手機、再到現(xiàn)在的智能音響設備等,這些設備對于智能交互的要求越來越高,AI 在其中產(chǎn)生了非常大的作用。還有像無人車、機器人等一系列物理設備能夠進入到人們的生活中,這也指日可待。再就是跟今天的主題更加相符合的,即 AI 滲透進各行各業(yè),能夠幫助各行各業(yè)賦能產(chǎn)生更大的價值。
AI 相關技術(shù)以及發(fā)展
人工智能從技術(shù)上分為多個層次,最基礎的層次就是硬件、芯片、服務器等,再往上是機器學習等各種 AI 技術(shù),繼續(xù)向上是各個應用方向,如計算機視覺、語音處理、自然語言處理和大數(shù)據(jù)統(tǒng)計分析等,特別是大數(shù)據(jù)統(tǒng)計分析,在金融行業(yè)有非常多的應用,再往上有很多技術(shù)點,之后就可以制定行業(yè)解決方案,最終賦能各個行業(yè)。
為什么說 AI 最近有了廣闊的發(fā)展?主要基于兩個因素:一是大數(shù)據(jù)在近年來急劇升溫,包括傳感器、云計算的發(fā)展、數(shù)據(jù)收集能力和存儲能力的加強等,這導致數(shù)據(jù)越來越多;二是計算能力的增強,從 80 年代的個人電腦到 90 年代互聯(lián)網(wǎng)、再從 CPU 到多核 CPU、GPU、異構(gòu)計算等,在計算能力上也有了很好的基礎。在此之上,近些年,特別是近十年左右,機器學習有了非常好的發(fā)展,在工業(yè)界取得非常多的應用,在原來的層次上使效果有了很好的提升。
早期的機器學習,它的方法是人工對具體的問題抽取出一些特征,在特征上做統(tǒng)計分析,這種方法目前在很多產(chǎn)業(yè)還是有應用,但從上一個十年開始,在一些場景上大家可以用深度學習技術(shù)把這些方法取代掉。深度學習的技術(shù)是端到端的學習,把人手工提取特征這一部分用機器取代了。
怎么做到這一點?有兩個要求,一是數(shù)據(jù)量更大,基于大數(shù)據(jù)才能學習這種特征;二是計算的要求更多,如果 80 年代做,算力不夠,要算十年或一百年,現(xiàn)在一天就算出來了。強大的計算能力和大數(shù)據(jù)取代了一些人工,造就了深度學習的巨大成功。這一成功也帶來了它的倡導者,包括三位主要的深度學習研究人員 Yoshua Bengio, Yann LeCun, Geoffrey Hinton 獲得 2018 年圖靈獎,這也說明計算機界對人工智能、機器學習給予了非常大的肯定。
在一些單一的場景下,針對具體的問題,AI 的確產(chǎn)生了非常好的能力,甚至能超過人。有些人看到現(xiàn)在的 AI,會有一些不切實際的預期,覺得 AI 無所不能。實際上并不是這樣。
早期,2010 年開始的 ImageNet 競賽直接導致了深度學習的發(fā)展,2012 年,通過采用 GPU 運算,迅速把傳統(tǒng)的方法取代了。這是一個單一的場景,ImageNet 比之前的數(shù)據(jù)集大很多,通過大的算力,逐漸取得成果。近些年,比較著名的案例就是 AlphaGo,AlphaGo 下圍棋能夠贏得人類,這是同一套思路在同一個問題上,用了非常多的模擬數(shù)據(jù)、自對弈,通過學習更多的棋局,通過更大的計算能力,比如谷歌 TPU 等新型硬件,然后又用了一些比較好的算法,三個方向同時發(fā)展,導致在單一場景上取得了非常強的能力,也讓人覺得 AI 能夠取代人類。
于是人們會經(jīng)常問一個問題,如果 AI 能夠下圍棋,是不是所有事情都能做了?其實并不是,是有缺陷的。下圍棋是一個單一的任務,差不多的任務如玩游戲,目前玩的是《星際爭霸》,從下圍棋到跟人類打《星際爭霸》,AI 進行了漫長的遷移,而這個遷移需要非常特別的定制化的算法和方式。從現(xiàn)在 AI 的情況來講,可遷移性并不強。
未來的挑戰(zhàn)和應用
將來會怎么樣?一方面還是沿著大數(shù)據(jù)在工業(yè)界的很多應用場景。比如我研究機器學習,我更關注的是在數(shù)據(jù)較小的復雜場景下怎么學習得更好,能夠?qū)崿F(xiàn)現(xiàn)在不能做的任務。
舉一個例子,無人汽車用的場景非常復雜,如果我給一個機器學習模型看了很多白天的圖像,讓它進行圖像分類與識別,在真實的應用場景上給的是夜晚的圖像,在夜晚圖像上,機器學習算法的效果就會非常差。
另外比如說語音識別,在安靜的情況下我訓練了一個系統(tǒng),它的能力可以超過人類,但是如果在復雜噪音的情況下,它的性能就會下降,并不比人類更強。
此外,模型的可遷移性并不強,包括在一些小的數(shù)據(jù)集上會產(chǎn)生一些問題,解決這些問題非常重要,這些問題一旦解決了,很多的應用場景就能夠得以實現(xiàn),包括無人駕駛,還有機器人在物理世界做一些具體的任務,因為物理世界極具多樣性,如果我們有更好的學習能力,就能夠使這些成為可能。
再往后就更復雜了,我們能夠理解世界,表達世界,甚至模擬世界將會發(fā)生什么事情,我們具有語言表示、邏輯思考等能力,但是機器目前并不行,而且并沒有好的實現(xiàn)手段。我覺得人工智能還有很長的路要走,將來還有很多值得研究的地方需要我們?nèi)スリP。