2015-10-15 sean

來聊聊為何《奇點(Singularity)》將近?為何是現在?

圖片來源:Getty Image

The greatest benefit of the arrival of artificial intelligence is that AIs will help define humanity. We need AIs to tell us who we are.

上面這段文是 WIRED 雜誌第一任總編輯 Kevin Kelly 在去年一篇關於人工智慧的文章中所寫道的。昨天我重新讀了這篇Kevin於去年(2014年)十月發表在連線(WIRED)雜誌上的文章,內容主要陳述為何他認為人工智慧的發展,終於要度過了所謂的人工智慧寒冬(AI Winter)並進入蓬勃的發展期,以及他這樣認為的原因。他甚至還略帶開玩笑地說:我能夠很輕易地就預測到地球上未來十萬家新創企業們要做的產品與服務的主題是什麼,不外乎就是《把__拿來加點AI(Take X and add AI)》


在Kevin Kelly論述中的AI,其實跟過去學界在討論的AGI(Artificial General Intelligence)不一樣,也不是科幻電影中那種可能會具有自我意識、嗜殺且對人類懷有敵意的超級智能機器。在Kelly的認知中,未來的AI其實會像是AWS的雲端服務一般,是個便宜、可靠且產業標準化規格的on-demand服務,隱匿在人類日常生活使用的各項軟硬體服務與應用後面。儘管他們將徹底改變網際網路、全球經濟以及人類文明,人們也幾乎不會感知到它們的存在,至於Kelly為何認為AI的發展將度過寒冬期呢?他在文章中解釋,是因為他觀察到了以下三項在電腦科學領域中的關鍵性技術突破:

一、更便宜的平行運算能力

人類的思考天生上是一項需要大量平行運算才能去完成的事,腦中有數十億個神經元同時運作,以產生同步的皮層腦波。而神經網路是人工智慧中一個主要的軟體架構,它的每個節點都在稀疏地模擬人類腦中的神經元,並透過與相互鄰近的節點互動,讓接收到的訊號產生意義。

要使人工智能識別人類說出的話語,它就必須能解譯出每個音位(phonemes)與這些音位間的相互關係;要去辨識一張圖片,人工智能必須識別出圖片中每個像素與其他像素間的脈絡關係。這些應用全都是非常深度的平行任務,傳統的電腦處理器無法做得到。

直到約十年前,能夠進行平行運算的新型態處理器GPU(Graphic Processing Unit)被發明出來,然後大量地被使用在電視遊戲機裡面,處理每一秒重新計算數百萬像素的需求,使得遊戲產業快速興起。但那時GPU的單位成本非常的高,無法普遍使用在研究上;直到2005年因製程的進步,才讓GPU能夠被大量生產,並大幅降低每單位的生產成本。也因此,在2009年機器學習大神Andrew Ng與他在史丹佛大學的研究團隊,才拿來使用在類神經網路的平行運算上。

Andrew NG透過使用GPU建立起的叢集,在一天之內就能夠完成一組由一億個參數串連起所有可能性的類神經網路運算;在過去沒有GPU的時代,這樣的運算需要耗費好幾週。而現今奠基於GPU上的類神經網路應用已經悄悄滲透入我們每日的生活之中,Facebook用它來識別使用者上傳的照片中是否包含他的朋友,Netflix則是使用類神經網路為五千萬的付費訂閱戶提供影片推薦引擎的服務。

二、更巨量的資料

不論何種形式的智能都必須要被教導。儘管人類的大腦雖然天生就擅長於對事物進行分類,但也需要經過多次的訓練,才能清楚的區分阿狗與阿貓間的不同,更不用說人工智能了。即便是最強大的人工智慧軟體搭配備上具強大運算能力的硬體,也必須經過上千場棋局的訓練,才能在與人類的對弈中取得勝利。現今人工智慧能夠有如此快速的進步,主要也是因為資料儲存的技術日益強大,以及伴隨而來儲存空間成本的大幅降低所致。再加上四面八方湧入的資料集,包括大型資料庫的資料、網路Cookie、使用者線上足跡、積累了十多年的網路搜尋結果,乃至維基百科等龐大資料集,都成為訓練超級智能最好的教材來源。

三、更強大成熟的演算法

數位類神經網路發展始於1950年代,但歷經數十年電腦科學的發展(當然包含先前所提到的硬體進步以及巨量資料累積),電腦科學家們才學習到:要馴服上億神經元間那浩如繁星般的組合關係,關鍵就在於如何將類神經網路組織成「堆疊狀的結構」。以辨識一張人臉來說,類神經網路要做的第一件事是能夠別出這的確是一張人臉(而不是阿狗或阿貓),然後類神經網路再把運算出的結果傳遞到下一個Layer去組合出人臉上的雙眼,接著可能還要把這群組合起來的結果再往下一個階層傳遞,比對出鼻子等等,一直比對下去。

這個過程可能會動用到類神經網路中數百萬個神經元,而這些神經元都持續將運算出的成果相互餵予周圍的節點,光是要完成這樣一個簡單(?)的人臉辨識過程,至少就要動用十五層的類神經網路。在2006年時多倫多大學的計算機科學家(同時也是心理學家)Geoff Hinton首次運用類神經網路間的關聯互動,一層一層將運算結果傳遞到下一層類神經網路進行運算,並將方法論命名為Deep Learning(深度學習)。

Geoff Hinton除了將深度學習的運算部署到使用了GPU當處理器的硬體架構上之外,他還在數理層面最佳化每一層運算的輸出結果,讓每通過一層運算的速度變得更快。雖然,光是只有深度學習的演算法與程式並不足以讓機器產生邏輯思考,但深度學習無庸置疑已成為當代人工智慧發展中一個重要的組成元件;不論是IBM的Watson、Google的搜尋演算法,亦或是Facebook服務中多項複雜的演算法,全都倚賴深度學習的發展。

Geoff Hinton

Kelly認為以上三項重要的科技突破(平行運算、巨量資料以及深度學習演算法)讓延宕近六十年的超級智能發展一夕之間看似可能!他認為,只要這三項技術的突破發展能夠持續下去,在三者匯流的清況下,沒有任何理由不去預期更靠近人類智能的機器能被人類所創造出來。不過看似美好的超級智能,未來其實也伴隨著非常多的風險。

在網路的發展過程中有一個非常重要的名詞叫做網路效應。網路效應所描述的是當一個網路應用(例如社群網站),或一項APP應用(例如直播影音)因使用人數上升時,在該應用中的人際網絡會愈來愈緊密。而愈來愈緊密的人際網路,又會吸引更多的使用者來註冊適用該服務;如此循環的迭代下去,創造出讓後進者或創新者非常高的競爭與進入門檻。

而超級智能的發展也是遵從網路效應的基本原理:當愈多人使用某項超級智能(例如AWS的Machine Learning),那這個超級智能將會愈來愈聰明。而愈來愈聰明的超級智能,又會吸引更多的使用者來使用它(教育);更加多的人類喜歡用他,它就又能變得更更聰明,如此地反覆迭代下去。也因此Kelly認為未來人工智能發展最大的風險之一,在於人工智能有很大的機會會形成一種寡頭政治的形式,使得人類文明會由少數兩家到三家巨大的網路公司所發展出來的人工智能所掌握著,這是非常值得當下的我們去思考的一項議題。

最後,Kelly的長文中有一段令我印象非常深刻,他提到多年前(2002年)在Google IPO前夕,他與Google創辦人 Larry Page的一場對話。Kelly問Page說:Page!其實我真的還是不太懂呢?現在有這麼多搜尋引擎,而且都是免費的,你究竟要怎麼賺錢?Page淡淡地回答Kelly一句話:噢!其實我們正在做的是AI(人工智慧)。

Kelly說,他每每回想起這場對話,都為自己缺乏想像力與未來前瞻性的無知感到羞愧,他說在當時他跟大多數的網路專家一樣,認為Google不會是一間能長久存續在地球上的網路公司。畢竟在當時,Google還沒有發展出競標關鍵字的廣告系統(現在的AdWords),也還沒有買下現在新興的影音廣告金牛Youtube;當時Page這極具開創性的回應,讓Kelly印象深刻。

也因為Page對Google所設下的願景,在過去數年間,Google陸續買下了十四家與人工智慧還有機器人技術相關的新創公司,至今仍然不斷的在強化他們(Google)在AI領域上的資產組合(Protofolio)。但在Kelly的觀察下,他認為在Google這些積極購併與擴張的舉動後面,與其說Google透過大量的購併AI相關公司來強化他既有的產品線,例如搜尋與關鍵字廣告;倒不如說Google正在用既有的產品,讓這些併入Google內的AI公司產品變得更聰明。例如透過每天三十億筆的關鍵字搜尋與使用者在搜尋結果頁的點擊結果,反覆訓練這些超級智能。這樣的反覆迭代,實在讓人很難找出還有誰能在可先的未來與Google的超級智能匹敵。

在文章的最後,Kelly寫下一個值得讓我們人類用接下來的十年、甚至是一整個世紀的時間去思考的問題:在人工智能急遽發展的趨勢下,未來人類自身的定位會是什麼?當愈來愈多曾經被用來定義人類的判定準標,一個一個被複製到具有智能、甚至是自我意識的機器上時,人類將如何去定義自己、如何在這樣的自我認知危機中生存下去?人工智能最諷刺的地方是,它最大的影響,不在於終將影響人類生產力的產值、能夠將人類經濟的疆界再往上提升數個層級,更不是影響我們日常生活的智能服務。它對人類文明最大的影響將在於:人工智能將重新幫人類定義所謂的人性,以及告訴我們(人類物種),我們到底是誰

Comment (1)

Comments are closed.