【中國智能制造網 名家論壇】我們對人工智能未來的期待充滿了不確定性。霍金認為,AI的進化速度會比人類更快,而它們的目標是不可預測的。所以人類需要確保人工智能的設計符合道德倫理規范,保障措施到位。
微軟CEO Satya Nadella對此的看法相同,他認為人類在AI方面必須展開更深入的協調和協作,就設計的倫理和移情框架達成一致。為此他提出了人工智能需要遵循的六大原則,以及未來人類要想不被時代拋棄需要堅持和發展的四個東西。Nadella認為,未來的AI世界人和機器的關系不是非此即彼,而應該是人機攜手,共創未來。
相對于有關計算機在Jeopardy!(智力競賽)、象棋、跳棋、圍棋比賽中擊敗人類的新聞頭條的令人心神不安,先進機器學習,亦即所謂的人工智能或者AI的前途要比這有希望得多。終人類和機器將會一起工作—而不是互相對抗。計算機也許會在游戲中獲勝,但不妨想象一下人機攜手解決戰勝疾病愚昧以及貧困等社會大挑戰的可能性。
不過要想做到這一點需要有勇氣和雄心,這不是當前技術的漸進式改良所能及的。現在是在AI方面展開更深入協調和協作的時候了。
今年早些時候,在跟Saqib Shaikh同臺的時候我得以窺見了這樣的未來。Saqib是一名微軟工程師,他開發出了技術來幫助補償自己早年喪失的視力。通過利用包括視覺識別以及先進機器學習在內的一系列先進技術,Saqib和他的同事開發出了可以在他佩戴的太陽鏡內嵌的小型計算機上運行的應用。這種技術可以消除歧義并且實時對數據進行解析。實際上,技術是在用聲音而不是眼睛替他描繪了一幅世界的畫面。他對世界的感受方式更加豐富了,比如說他可以把街頭發出的噪音跟玩滑板的人聯系在一起,或者從會議當中突然陷入的沉默聯想到同事腦子里的東西。當技術在他耳邊喃喃細語時他可以閱讀“菜單”。不過對他來說重要的,也許是他在公園野餐的喧鬧中找到了他的愛人。
人機攜手之美已經在AI是好還是壞的討論中迷失。我們對AI的看法似乎已經陷入到兩種聲音之間:一種是科幻片《2001太空漫游》里面HAL令人不安的環境音,一種是今天的Cortana、Siri以及Alexa等個人數字助手友善的提示聲。我們可以在機器開車送我們、替我們干雜活、幫助我們做出更好決策的時候做著如何利用空閑時間的白日夢,或者杞人憂天于本世紀末機器人會誘發大規模的經濟失控。視你聽到的說法不同,所謂的“奇點”,也即計算機智能超越人類智能的時刻,可能會在2100年到來,也可能只是科幻小說的素材。
在我看來,具建設性的討論未必是AI的正邪之爭:爭論的焦點應該放在該技術給人和創造者帶來的價值上面。在《與機器人共舞》一書中,JohnMarkoff寫道:“回答充斥著智能機器的世界的控制這個難題的好辦法,是理解創造這些系統的人的價值。”這是一個有趣的問題,必須由整個行業一起討論和回答。
今年早些時候,我在一場會議上分享了我們對AI的看法。首先我們希望開發能夠增強人類能力和體驗的智能。終這不會是人類vs機器。我們人類有創造力、同理心、情感、肉體性以及洞察力,這些東西可以跟強大的AI糅合到一起。計算,也即通過大規模數據獲得理性以及更快進行模式識別的能力,可以幫助推動社會前進。其次,我們還必須把信任直接建立到技術里面。我們必須針對隱私、透明和安全給技術增加防護。AI設備必須設計用于檢測新威脅,并且隨著AI的演變來設計出相應的防護。第三,我們開發的所有技術都必須包容所有人、尊重所有人。
這只是開始,我們還可以走得更遠。
技術界不應該決定這一未來的價值觀和美德。
科幻小說家阿西莫夫也給出了一個很好的起點,盡管還不夠充分:他在1940年代提出了“機器人三原則”作為故事當中機器人的倫理守則。阿西莫夫定律是層次化的,即原則高于第二原則,第二原則高于第三原則。原則是機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二原則是機器人必須服從人類的命令,除非這條命令與條相矛盾;第三原則是機器人必須保護自己,除非這種保護與以上兩條相矛盾。盡管阿西莫夫定律作為策略而言比較方便且具有啟發性,但是并沒有提供研究人員和技術公司可以遵循的價值觀或者設計原則,也沒有告訴社會當AI和機器學習對經濟越來越多的構成產生推動時,人類必須帶入這下一個時代的能力是什么。
計算機AlanKay揶揄道:“預測未來的好辦法是創造未來。”在AI的背景下,他的意思是說不要再預測未來的樣子了,用有原則的方式去創造未來才是正道。我同意。就像任何軟件挑戰一樣,原則做法始于開發的平臺基礎。用軟件開發的術語來說,AI正在成為第三種“運行時”—成為下一個平臺。在計算機科學中,運行時是指程序員開發和執行應用的基礎系統。換句話說,我們為PC編寫Word、PowerPoint之類的Office應用。現在的Office365包含了Office、Skype和Outlook,是寫給web的。而在AI和機器人的世界里,這些生產力和溝通工具將會針對一個全新的平臺編寫,這個平臺不僅管理信息還會從信息中學習并且與物理世界交互。
這個平臺或者所謂的第三運行時的樣子現在正在構建當中。我還記得195年春讀到蓋茨《互聯網浪潮》備忘錄的情形。蓋茨在里面預測了互聯網對連接、硬件、軟件開發以及商業的影響。20多年過去了,我們正目睹著一股新的浪潮來臨—人工智能浪潮。那么指導我們思考、設計和開發的普遍設計原則和價值觀應該是什么樣的呢?
一些人正在帶頭直面這一問題。MIT MediaLab的Cynthia Breazeal把一生都奉獻給了探索更人性化的人工智能和機器人上面。她提出,技術往往忽視了設計的社會和行為因素。Cynthia在近的談話中說我們是所有物種當中社會化和富有感情的一種,但是在技術設計中卻幾乎沒有考慮過移情的問題。她說:“我們畢竟是通過溝通和協作來體驗世界的。如果我們對一起協作的機器感興趣,那就不能忽視人性化方法。”
為此,我思考了一些我們作為行業和社會應該共同討論和辯論的原則和目標。
1、AI必須用來輔助人類:隨著我們開發出來的自動機器越來越多,我們需要尊重人類自治。協作式機器人應當從事采礦之類的危險工作,從而為人類工人豎起一道安全網和提供保護措施。
2、AI必須是透明的:我們應該能知道技術是如何工作的,它的規則是什么。我們需要的不僅僅是智能機器,而且是可理解的機器。技術會了解人類的事情,但是人類也必須了解機器的事情。大家應該對技術如何審視和分析世界有了解。倫理和設計必須齊頭并進。
3、AI必須實現效能大化,同時又不能傷害人的尊嚴:它應該維護文化承諾,支持多樣化。在設計這些系統時我們需要有更廣泛更深入更多的各種互動。技術界不應該決定這個未來的價值觀和美德。
4、AI必須用于智能隱私:要有復雜的手段保護個人以及群體信息,要能夠以增進信任的方式進行。
5、AI必須承擔算法責任以便人類可以撤銷非故意的傷害。我們設計這些技術時必須考慮到預期和非預期的情況。
6、AI必須防止偏見,確保進行適當的、有代表性的調查,從而防止錯誤的啟發法不會造成歧視。
但是人類也必須遵守一些守則—尤其是在考慮清楚我們的后代必須重點考慮和培養哪些技能方面。為了不被時代拋棄,我們的孩子和他們的孩子需要有:
7、同理心—機器很難復制的同理心(Empathy)在人與AI共存的世界里非常有價值。感覺到別人的想法和感受,協作和建立關系將會變得至關重要。
8、教育—有人提出,因為壽命延長出生率會下降,因為在教育的投入也會降低。但我認為要想進行創新并管理好我們今天看不清楚的創新,我們就必須不斷加大對教育的投資才能拔高我們的思考層次,才能獲得更加公平的教育產出。新技術大規模實施所需的知識掌握和技能培養是一個非常困難的社會問題,要花很長時間才能解決。動力織機在1810年就發明出來了,但是由于經過充分培訓的技工人手不足,服裝業完成變革卻花了35年的時間。
9、創造力—創造力是夢寐以求的人類技能之一,這一點不會改變。機器會繼續豐富和增強我們的創造力。小說家JhumpaLahiri近在接受采訪中被問到,作為有特殊影響的英國文學作家,為何要用自己的第三語言意大利語來進行新的文學創作?她說道:“不斷探索難道不就是創造力的要點嗎?”
10、裁決和責任—我們也許愿意接受一個計算機生成的診斷書或者法律判決,但我們更希望由人來后對結果負責。
公平方面又會怎么發展呢?自動化會導致更公平還是更不公平?一方面,我們被告知無需擔心。縱觀整個歷史,人類勞動力的替代品總是讓工人變得更富有也不是更貧窮。另一方面,我們又被告知經濟取代作用如此以至于創業者、工程師和經濟學家應該接受一項“新的宏偉挑戰”—大家要協力設計對勞動力起到補充性而不是替代性作用的技術。換句話說,商業必須用創造者和創造物(maker-and-creation)的心態來取代原來的節省勞力和自動化的心態。
AI的發展和對社會的影響才剛剛開始。要想真正把握即將到來的這個時代的意義需要進行深入的、多方面的分析。我在微軟研究院的同事EricHorvitz是人工智能領域的,他一直在問自己這些問題。Eric和他的家人為斯坦福大學的OneHundredYearStudy研究計劃提供了資助。該項目將在下一世紀來臨前的每一年,就智能計算的崛起、對機器智能認知的變化,以及人際關系的可能改變會引發的近期和遠期社會經濟學、法律和道德問題進行報告。
盡管未來沒有清晰的路線圖,但是之前的工業革命我們已經看到過渡并不是一帆風順,要經歷一系列階段。首先,我們發明和設計了變革的技術,也就是我們現在走到的地方。接著,我們面向未來轉型。比方說,無人機飛行員需要培訓;舊車的方向盤需要卸掉,因為會被改成無人車。第三,我們要對畸變、不協調以及錯位進行引導。在機器看X光片的水平更高之后放射科醫生的工作是什么?當計算機可以從上百萬份資料當中找出無人可以識別的模式之后,律師的職責又是什么呢?但是,如果我們能夠吸收合適的價值觀和設計原則,如果我們能夠準備好作為人類的必備技能的話,人類和社會就能繼續繁榮。
認知科學家和哲學家ColinAllen得出結論:“正如我們可以設想在人類監視下自治程度不斷增加的機器一樣,我們也可以設想控制對倫理相關事情敏感度不斷增加的機器。當然,不是機器,但是會比以前更好。”
我們對AI追求的關鍵一步是就設計的倫理和移情框架達成一致。