當電腦變得比人類聰明時 世界會變成什麼樣子?

作者:K@W   |   2016 / 12 / 17

文章來源:K@W   |   圖片來源:Joseph Wang


如果你在網路上訂一場比賽或大型運動賽事的票,就快要訂好的時候惱人的驗證碼視窗彈出來,要你辨別出模糊的字母和數字並在一個方框裡輸入。大多數人都知道,這是為了確認你是真人,而不是非法搶票囤票的電腦程式。

但為什麼電腦可以比人更快地算出天文數字,卻不能識別一個字母B,或者一張模糊照片當中門上的數字5呢?就因為它字體複雜又加了刪除線嗎?為什麼連一般二年級學生都能做到的事,電腦就這麼容易感到困惑呢?

要想知道答案,就要瞭解人工智慧(Artificial Intelligence, AI)。它目前能做什麼?什麼是它仍然不能掌握的呢?我們可能正朝向日益智慧化的技術飛速發展,但卻沒有充分思考它對我們自己以及地球所造成的影響。這是提姆•爾班(Tim Urban)的觀點,他在部落格Wait But Why中用火柴人來敘事,風趣幽默的語氣,讓他倍受歡迎,特斯拉(Tesla)的首席執行長伊隆•馬斯克(Elon Musk)和臉書(Facebook)的首席執行長馬克•祖克伯(Mark Zuckerberg)也是他的粉絲。最近他在麥克納提領導力計劃(McNulty Leadership Program)中的沃頓名家(Authors@Wharton)系列發表了文章。

喬治•華盛頓和「致死單位」

「想像一下你用時光機把喬治•華盛頓(George Washington)從1750年帶到現在。」爾班說道。他提醒觀眾,華盛頓的時代「是完全沒有電的」。你想要去其他地方,就必須靠雙腿、騎馬或者乘船;如果想要交流,你可以說話、喊叫、寄信,或者是放煙火。

如果華盛頓看到我們現在的科技,汽車、飛機、國際太空站等等,他會有什麼反應呢?你可以告訴他大型強子對撞機(Large Hadron Collider, LHC)和相對論、可以為他播放50年前錄製的音樂。他也沒見識過什麼是網路。在我口袋裡的長方形魔法師可以施展出無窮的魔法,例如打開地圖,用不可思議的藍點標誌我們的方位,或者讓你與在地球另一端的日本人對話。

「我覺得喬治•華盛頓不會只是感到驚訝或震驚,我認為他會被嚇死,」爾班說道。為了實現這種由於時代前進而致死的結果,你需要前進到多遠的未來?「我把它叫做‘致死單位’ (Die Progress Unit ,DPU)。」這雖然很有趣,但也不完全是個玩笑。爾班用致死單位說明了技術進步的速度有多快。「它已經從線性發展走到了指數發展」爾班說道。

如果喬治•華盛頓想對1500年前後的李奧納多•達文西(Leonardo da Vinci)做一個相似的時光機試驗,把他帶到1750年,爾班表示,「我很難不相信,達文西不會被嚇死」。為了製造這種極度驚嚇感,華盛頓需要回到農業革命以前,找一個狩獵採集者把他帶到1750年。「這個人以前從來沒有在其他地方看過一大群人。突然出現的巨大城市、高聳的教堂,還有遠洋輪船,我覺得這個人可能也會被嚇死。」

此外,爾班還堅信過去200年間的指數級進步,令我們的時代與人類歷史上其他時代相比都更加與眾不同。「DPU單位正在飛速變短。這說明了我們生活在一個不同尋常的時代。」網路的發明和圍繞著它所產生的所有技術,只用了短短的25年左右就有快速的進步。這對未來又代表著什麼樣的意義呢?

爾班說,人們本能地抗拒著呈指數級變化的世界。「你可能回答‘才不是呢’。人們會有這樣的認知偏見,‘沒有這種瘋狂的事,這種事怎麼可能現在發生?’」但是爾班表示,根據專家的看法,這種情況正在發生。

當前AI技術的限制

爾班認為,世界呈指數級成長的主要推動因素就是AI技術。AI並不一定就是大家所說的機器人,爾班表示,任何能對特定問題做出智慧判斷或準確預測的軟體,都可以稱為AI技術。智慧手機上的大部分應用,例如Siri,都包含著人工智慧。

而且AI技術的應用正在增加。電腦世界(Computerworld)網站上最近的一篇文章中指出,諮詢娛樂和高級駕駛輔助系統等AI裝置,在汽車中的安裝率預估將從2015年的8%上升到2025年的109%。《紐約時報》近期報導「美國已經把人工智慧作為國防戰略的核心,有些武器可以發現目標,並作出決定。」爾班對此評論,「我們現在生活在一個全面人工智慧的世界裡。」

但是人工智慧顯然也有它的限制,它沒法完成一些小孩子都能做的簡單任務。比如讓它區分一隻尖耳朵的小狗和一隻貓時,它並不知道一幅3D繪圖代表著一個3D物體,或者是在辨識其他人的臉的時候,它就會出洋相。爾班認為,知名電腦科學家唐納德•克努斯(Donald Knuth)所下的結論很好,「目前的AI技術基本上已經可以成功完成所有需要‘思考’的事情,但卻在大多數的人類和動物根本‘不需要思考’就能做的事情上失敗了。」

專家把現在的人工智慧歸為「弱人工智慧」( Artificial Narrow Intelligence, ANI),因為它是用來解決特定類型的問題,並沒有達到人類智慧的廣度。爾班表示,例如潘朵拉(Pandora)電台可以根據你的喜好向你推薦你可能喜歡的音樂,但如果你問它約會的建議,它就會茫然地看著你。

如果電腦的智慧廣度超出了它被設定的這項專門任務會怎樣呢?爾班認為AI的子集,也就是機器學習正在朝著這個方向發展。AI技術可能會從「弱人工智慧」向「強人工智慧」( Artificial General Intelligence, AGI)發展。「它不僅能幫你選音樂,還能幫你在谷歌(Google)上搜索,或者幫助航空公司設定機票價格。它什麼事都能做。」

爾班指出,根據許多專家的看法,如果強人工智慧被開發出來,那麼第三類人工智慧也不會太遠,那就是「超級人工智慧」(Artificial Super Intelligence, ASI)。這樣的軟體理論上會比人類更聰明。

爾班讓觀眾思考這些技術進步帶來的影響。電腦可能最終會站在高於人類的進化階梯上,就像我們比黑猩猩高一階一樣。爾班表示,人類和黑猩猩的DNA的差異並不大,但我們卻是它們絕對的主人。超級人工智慧會成為我們的主人嗎?爾班說:「我們不僅做不到超級人工智慧所做的那些事,甚至可能無法理解。」想像一下你試著對黑猩猩解釋你如何建一座摩天大樓。

爾班補充,「想像一下超級人工智慧將瞭解電腦科學,讓自己變得更好,為自己的結構重新寫一個程式,理解奈米技術,還有其他所有幫助它們不斷提升自己的事情,太不可思議了!」很快地,你就可以讓它每小時進化一次。

但是,他也警告觀眾提防人工智慧人格化的趨勢。想像一下,就像許多電影和書中那樣,「機器人變得邪惡,想要接管一切。」這不是它發展的方向,爾班說道。這是人工智慧可怕的另一個原因。

未來:是天堂,還是迴紋針般的世界?

爾班表示,許多AI專家擔心的不是機器會故意背叛我們,而是我們可能會阻擋了它們的計劃,或者變得對它們無關緊要。如果它們的程式寫得不好,可能會產生一些意外的後果。

他描述了一個在AI圈子裡經常提到的有趣但卻可怕的「迴紋針情境」。「想像你有一個AI的高科技實驗室,像Google X那樣,」他表示,「你說,我想讓這個AI變得更聰明,自己把自己訓練得更聰明。我們對它進行設定,讓它把這個原料變成迴紋針。」

爾班表示,然後有一天,它開始變得比人類還要聰明。它可能不會告訴我們,現在它只關心一件事情:就是製造迴紋針。「如果它真的想要製造許多迴紋針的話,它可能就需要很多原子,包括我們身體裡的原子。300年後,整個銀河系都是迴紋針。」

另一方面,一些專家看到了超級人工智慧可能的優點。它或許可以幫助我們解決一些全球問題,例如戰爭、疾病、貧窮和氣候變遷。爾班提到AI思想家Eliezer Yudkowsky曾說過這樣的話,如果有了這種高級形式的智慧,那些看似難以應付的問題就不攻自破了。

許多專家屬於「焦慮」型的,爾班表示,他們擔心人們沒有對我們所創造出來的這些事物的影響給予足夠的關注。AI的發展大部分來自新創企業,它們一心想要「獲得榮譽,改變世界,改變人性」,爾班指出。「大部份的AI 資金都用來創業和開發,並沒有用於解決AI的安全問題。這種投資對人們沒有吸引力。」

我們距離超級人工智慧變成現實還有多遠?許多專家認為已經很接近了。爾班引用數據指出,專家對高人工智慧的預測中值是2040年,超級人工智慧是2060年。也就是說距離現在只有45年了,也就是我們的孩子和孫子的那個年代。

K@W》授權轉載

喜歡這篇文章?加入你的S夾!

K@W
賓州大學的華頓商學院致力於在他們的線上刊物Knowledge@Wharton當中分享他們的智慧資本。網站中提供以下的免費資訊: 近期商業趨勢分析、與業界領袖和Wharton教授的訪談 、近期商業研究相關文章 、研討會概述、書評以及相關連結包含6,300多篇文章和研究摘要的檢索資料庫。
K@W的最新文章
More

社群熱門分享排行榜
本週
本月
追蹤股感的社群