全新任務中心上線了!
會員專屬好禮都在這

立即前往
任務中心
什麼是AI人工智慧?LaMDA是什麽?LaMDA真的有自我意識嗎?
收藏文章
很開心您喜歡 虎嗅網 的文章, 追蹤此作者獲得第一手的好文吧!
虎嗅網
字體放大


分享至 Line

分享至 Facebook

分享至 Twitter


什麼是AI人工智慧?LaMDA是什麽?LaMDA真的有自我意識嗎?

2022 年 6 月 15 日

 
展開

Google 的工程師突破重重阻撓對外發聲:他所負責的 Google 自然語言模型 LaMDA 產生意識。公司則以違反保密協議為由,暫停他的職務。這個看起來像是《黑鏡》中的情節真實發生了嗎?今天讓我們來聊聊什麼是人工智慧(AI)? LaMDA 是什麽? LaMDA 真的有自我意識嗎?

什麼是 AI 人工智慧?

根據 Amazon AWS,人工智慧(AI)是電腦科學的一個領域,致力於解決與人類智慧相關的常見認知問題,例如學習、解決問題和模式辨識。人工智慧呈現出機器人或未來世界的景像,也就是說,AI 不再是科幻小說中虛構的機器人,而真正成為現代高階電腦科學中的現實。

Pedro Domingos 教授是這個領域聲譽卓著的研究人員,提出機器學習的「五大流派」,包括:符號主義 (Symbolists),源自於邏輯和哲學;聯結主義 (Connectionists),神經科學的分支;進化主義 (Evolutionaries),與進化生物學相關;貝葉斯派 (Bayesians),採用統計學和概率方法;以及類比主義 (Analogizers),源自於心理學。

由於統計運算效率的提高,所以貝葉斯派的學者成功地讓「機器學習」在很多領域更向前邁進。同樣地,網路運算方面的進展也讓聯結主義流派的學者進一步發展「深度學習」這個分支。機器學習 (ML) 和深度學習 (DL) 這兩個電腦科學領域都是從人工智慧這個學科衍生出來的。

LaMDA 是什麽?

LaMDA 是 Google 在 2021 年開發者大會上公布的大型自然語言對話模型。和訓練所有的大型人工智慧模型一樣,想要讓 LaMDA 能夠與人類透過自然語言對話,分為預訓練和微調兩步。

在預訓練階段, Google 從公共數據中創建了一個 1.56T 的數據投餵給 LaMDA ,讓它對自然語言有一個初步的認識。到這一步, LaMDA 就可以根據提供的句子預測上下文。但這種預測通常還是不夠精準,所以需要進一步微調。在對話期間, LaMDA 會根據對話生成幾個備選回答,並透過 LaMDA 分類器預測每個回答的有趣程度(SSI)和安全程度(Safety)的得分。安全分數低的答案就會首先被過濾掉。其餘的答案會根據有趣程度排序,並將分數最高的備選答案作為回答。

從 LaMDA 的訓練過程可以看到,它並不理解自己的回答。但機器學習的優勢就在於它可以從大量的數據中尋找規律,透過自己的量化評價體系,找出最接近正確的那個回答。

為什麽爆料的Google工程師被停職?

這位工程師名叫 Blake Lemoine,在 Google 的人工智慧部門負責測試 Google 的 LaMDA 模型是否會產生歧視性語言或者仇恨言論。為什麽工程師被停職?因為他違反了 Google 的保密協議。根據他本人的說法,他曾經尋求「最低限度的外部諮詢,以幫助指導我的調查」。其中包括一位美國參議院,Blake 向他提供 Google 及其技術參與宗教歧視的證據。

LaMDA 真的有意識嗎?

Google 官方已經否定了這個說法。Google 發言人 Brian Gabriel 在一份聲明中表示:「我們的團隊——包括倫理學家和技術專家——已經根據我們的人工智慧原則審查了 Blake 的擔憂,並告知他,證據不支持他的說法。」

LaMDA 是一個自然語言模型,本質上來說,它的工作和 Google 搜索框裡的搜尋建議沒有什麽不同,都是透過給定的上下文預測用戶的意圖。只不過,當 LaMDA 的參數量達到 1,370 億這個量級時,它把這項工作完成得非常出色,以致於可以短暫地欺騙人類。但 LaMDA 並不理解自己說出的話是什麽意思。

機器學習所做的是捕捉訓練語料的語言結構。它可能會生成精妙的回答,也可能完全牛頭不對馬嘴。但關鍵是,現階段的人工智慧並沒有辦法成為自己的「決策者」。史丹佛大學的經濟學家 Erik Brynjolfsson 做了一個精準的比喻:聲稱它們(人工智慧)是有感知能力的,就相當於狗聽到留聲機里的聲音,就以為主人在裡面。

Google 是如何審查人工智慧的?

在 Google ,任何員工都可以為新產品請求審查。中央審查小組會應用相關的人工智慧道德框架作為原則,並在審查時尋求專家支持。這個團隊的成員包括用戶研究人員、社會科學家、技術專家、倫理學家、人權專家、政策和隱私顧問、法律專家。評審員會系統地考慮人工智慧原則,並從以前的案例研究中尋找可以應用的例子。如果需要,評審員會就解決方案向專家諮詢。產品團隊會根據建議調整方法。

商定的解決措施會有領導層簽署,並成為產品開發計劃的一部分。如果有一個具有挑戰性的決定需要決策, Google 高級主管組成的高級理事會會最終審查,並決定是否需要大幅更改或者停職項目。此外, Google 還會邀請外部專家參與審查過程,例如他們曾邀請非營利組織 BSR(商業社會責任)對評估新的名人識別工具。

Google 人工智慧原則包括:

  1. 具有社會效益:對人類和社會可能帶來的利益大大超過可預見的風險和弊端。
  2. 避免產生或加強不公正的偏見:避免對人產生不公正的影響,特別是與敏感特徵有關的影響,如種族、民族、性別、國籍、收入、性取向、能力和政治或宗教信仰。
  3. 為安全而建造和測試:應當適當地謹慎,並符合人工智慧安全研究的最佳做法,包括在受限環境中測試和適當的監測。
  4. 對人負責:提供適當的反饋機會、相關的解釋和呼籲,並接受適當的人的指導和控制。
  5. 納入隱私設計原則:鼓勵具有隱私保障措施的架構,並對數據的使用提供適當的透明度和控制。
  6. 堅持科學卓越的高標準:技術創新根治於科學方法和對公開調查、智力嚴謹、成型和協作的承諾。
  7. 適用於這些原則的用途: Google 將努力限制潛在的有害或濫用的應用。

除了上述目標外, Google 還承諾不會在以下應用領域設計或部署人工智慧:

  1. 造成或可能造成整體傷害的技術。在存在重大傷害風險的情況下,將只在認為利益大大超過風險的情況下進行,並將納入適當的安全限制。
  2. 其主要目的或實施方式是造成對人的傷害的武器或其它技術。
  3. 違反國際公認標準,收集或使用訊息監視的技術。
  4. 其目的違反了廣泛接受的國際法和人權原則的技術。

人工智慧真的需要像人嗎?

把人工智慧打造成一個人類,除了引發群眾的恐慌、潛在的倫理問題和給公司帶來數不清的麻煩,它的積極意義在哪?科幻作品討論的是一種基於現實社會模型的思想實驗。遊戲《底特律:變人》討論了這一議題,最終人類和機器人分化為了兩個陣營,社會完全撕裂。但在真實世界中,人工智慧的意義在於它是一種提高生產力、解放人類的工具,正如蒸汽機把人類從體力勞動中解放出來一樣。完全像人,也意味著它全盤接受了人類固有的缺陷。說到底,人工智慧與人工意識是兩種完全不同的概念,能夠騙過人類並不意味著人工智慧產生了意識。

現階段的人工智慧其實還相當脆弱。由於人工智慧模型複雜度之高,人工智慧已經進入到了不可解釋的狀態。人類能夠控制的,就是輸入的語料和輸出的回答,至於其中發生了什麽,無人知曉。這也就意味著,只要輸入的語料出現一絲偏差,人工智慧就極易被污染。

由人工智慧引發的偏見、謊言和種族歧視並不少見。2020 年 1 月,美國密西根州一位非裔美國人就以入店行竊罪被捕,但他對此一無所知。原因在於警員是根據人工智慧臉部辨識來抓捕嫌疑人的。由於用於訓練的圖像大多是白人,人工智慧在識別黑人面孔時就發生了錯誤。

在人工智慧領域,還有大量嚴肅的問題需要解決,例如如何使它更加高效、更加安全、更加能夠解決實際的問題。科幻作品和社交網絡編織出的人工智慧恐慌深入人心,但這更多是一種臆想。一些人工智慧企業有意無意的誇張和市場宣傳某種程度上加劇了這種恐慌。美國人工智慧公司 Geometric Intelligence 的創始人加里・馬庫斯(Gary Marcus)在《重啟人工智慧》一書中把這種人類傾向稱之為「易受騙差距」——一種有害的現代版幻想性錯覺。

對於還十分脆弱的人工智慧來說,將其稱之為「人工智障」倒也不是十分過分的說法。可以確定的是,人工智慧將會在人類文明中扮演重要的角色,但還有很長的路要走。在這個時間點到來之前,對於人工智慧的過度恐慌與臆想,才是應該警惕的。

虎嗅網》授權轉載

【延伸閱讀】

 
週餘
 
 
分享文章
分享至 Line
分享至 Facebook
分享至 Twitter
收藏 已收藏
很開心您喜歡 虎嗅網 的文章, 追蹤此作者獲得第一手的好文吧!
虎嗅網
分享至 Line
分享至 Facebook
分享至 Twitter
地圖推薦
 
推薦您和本文相關的多維知識內容
什麼是地圖推薦?
推薦您和本文相關的多維知識內容