人工智能工程師現在面臨一個問題:他們常常不知道自己研發(fā)出來的那個玩意兒在想什么。為了解決這一難題,工程師求助于認知心理學。
圖為1968年影片《2001太空漫游》中的超級電腦哈兒(HAL),它眼睛里映出的是男主角戴維﹒鮑曼(Dave Bowman)。戴維想讓哈兒做的不過就是打開救生艙門。圖片來源:EVERETT COLLECTION
人工智能工程師現在面臨一個問題:他們常常不知道自己研發(fā)出來的那個玩意兒在想什么。
隨著人工智能日趨復雜和普及,它的影響力也越來越大。在判定誰該入獄,誰能獲得貸款方面,人工智能都已經開始施展拳腳。有人建議,在一輛自動駕駛汽車發(fā)生不可避免的車禍時,應由人工智能判斷哪個人的存活幾率最大。
初創(chuàng)企業(yè)現在無論做什么,都喜歡給自己貼上人工智能的標簽。蹭人工智能名頭的方式越來越狡猾,請務必謹慎定義。一般來說,人們普遍認為人工智能指的是模仿人類智慧和能力的科技。
人工智能領域中發(fā)展尤為神勇的一個分支是神經網絡,該系統(tǒng)可像人類那樣通過訓練來“學習”,把學習經驗轉變?yōu)槟M神經元網絡。最終生成的不是代碼,而是晦澀難辨、紛亂復雜的數百萬、甚至數十億個人工神經元。這也解釋了創(chuàng)造現代人工智能的科學家何以對人工智能完成任務的方式表示費解。
大多數研究人員一致認為,了解人工智能是一項迫在眉睫的挑戰(zhàn)。如果我們不理解人工智能的工作方式,那我們如何確定它是否帶有偏見,又如何預測它可能出現的錯誤?
隨著人工智能的日趨復雜和普及,它的影響力也越來越大。有人建議,在自動駕駛汽車發(fā)生不可避免的碰撞時,應由人工智能判斷哪個司機的存活幾率最大。圖為處于自動駕駛模式的優(yōu)步車輛。知道人工智能什么時候會有意外之舉,這一點很重要。圖片來源:ERIC RISBERG/ASSOCIATED PRESS
人工智能會不會是種族主義者?它會不會有一些意想不到的“腦回路”,引發(fā)自動駕駛車輛失靈,造成車禍?這些我們都無法提前預知。只有在它做出了無數個決定后,我們才可能了解到它是否有偏見。知道人工智能何時會失靈,何時會有意外之舉,何時會告訴我們:“對不起,戴維,恐怕我辦不到”,這一點非常重要。
曾在圖片社交網站Pinterest Inc.研究機器學習的軟件工程師TracyChou說:“現在的一大問題是,人們以為人工智能或機器學習不帶偏見,十分中立。之所以有這個印象,很重要的一個原因是,大家沒有認識到,設計人工智能模式的是人,給它們選擇訓練數據的也是人。”
谷歌翻譯(Google Translate)便是一例。比如,讓它將英文單詞“doctor”(醫(yī)生)譯成葡萄牙語,它給出的總是陽性名詞medico,而不是陰性名詞medica。讓它翻“nurse”(護士),它給出的則是陰性名詞enfermeira,而不是陽性名詞enfermeiro。
陰謀嗎?非也。用本身就帶有偏見的文學庫來訓練翻譯系統(tǒng),后者自然一脈相承地也有了偏見。若研究人員刪除種族這個類別,數據一樣帶有偏見,因為還有其他與種族關系密切的數據(比如一個人在哪里生活),那些數據就成了種族的代名詞。
機器人畢竟不是人,我們不能直接問一個機器人,你為什么要做這件事?不錯,人工智能可以出色地完成一些片面任務,而實際上,即便是那些會說話的機器人,其自我反思能力跟一只蟑螂差不了多少。
2017年1月,人工智能研究者、軟件工程師、DeepMind Technologies聯合創(chuàng)始人哈薩比斯(Demis Hassabis)在德國慕尼黑大會上講話。圖片來源:TOBIAS HASE/DPA/ZUMA PRESS
這是個很難攻克的課題,美國國防高等研究計劃署(Defense Advanced Research Projects Agency,簡稱:Darpa)正在為“可解釋人工智能”項目提供資金支持。
下面說說這個課題為何難以被攻克。在計算機科學領域,要想解決某個問題,有個好辦法是讓工程師編寫一個神經網絡(相當于原腦),然后給它灌輸海量數據來訓練它。舉例來說,只要人工智能有足夠的時間去消化一堆貼有“貓”標簽的圖像,那它就可以挑出貓的照片。
難點在于,神經網絡是通過內在的“自我改造”完成學習任務的。人腦基本上也是這樣工作的。就像我們無法理解人腦中約860億個神經元之間的相互連接一樣,人工智能“思考”的具體方式亦令我們費解。
工程師將上述情況稱為“可解釋性”問題(也就是尚無法解釋),把神經網絡稱為“黑匣子”(我們可以模擬和觀察、但無法了解其內部的東西。)
Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人員宣布了一個探索機器心智的獨辟蹊徑之道:像對待孩子一樣對待機器。
也就是說,工程師對人工智能使用認知心理學技術,這并不是比喻。參與這個項目的DeepMind的科學家巴雷特(David Barrett)說,為了梳理人工智能的所思所想,DeepMind團隊對人工智能用的測試題和材料與心理學家對兒童用的一模一樣。
巴雷特說,幾十年來通過認知科學解開人腦之謎的研究如今應用到了機器上,有可能打開一扇認識人工智能的新大門,讓人工智能變得更易懂。
DeepMind的研究結果之一是讓我們知道了,至少有一種人工智能(用來認字的“一次性學習模式”,那些字只給它看一眼)用的是和人類一樣的解決問題的方式,真是令人吃驚。它也是通過形狀來識別物體,哪怕沒人教它這么做,哪怕識別隨機物體還可以通過顏色、質地或動作等其他方式。以前它的學習方式不為人知。
理解只是我們與人工智能互動的第一步。機器人心理學的另一半可被形容為“心理治療”,也就是說,改變它的想法。
巴雷特說,工程師在創(chuàng)造人工智能時,為了找到最棒的那個,一般會做出很多版本,而使用認知心理學能讓工程師擁有更多“實權”,可以選擇那些按照人類希望的方式去“思考”的機器。又或許,人工智能的思考方式與我們不同,而且更好,這樣我們就可以學點解決問題的新辦法。
結果就是,當我們用人工智能替代人類決策者時,人工智能有更上一層樓的潛力,變得更少出錯,更加可靠,因為人工智能的行為是可衡量的,我們或許可以精確追溯它們做決定的整個過程。
對于人類的行為,我們一直也是這么要求的(如在法庭上剖析一個商業(yè)決定),但眾所周知,人類是不可靠的敘述者。有了機器人后,我們終于迎來了剛正不阿的決策者,它們的所有偏見和一閃而過的沖動都可以被仔細審視和修正。