本書挑戰(zhàn)了金融風險領域的傳統(tǒng)智慧,解釋了以簡單的方案管控金融體系為何注定會失敗。本書認為核心風險產生于體系內部,生發(fā)于個體之間的相互作用,并因無數(shù)個體的信仰、目標、能力和偏見而永久存在。人們普遍認為風險源于金融體系之外,這一錯覺削弱了我們度量和管理風險的能力,同時,新的監(jiān)管法規(guī)雖然有助于降低小規(guī)模風險的水平,但反而鼓勵過度的風險承擔。書中援引過去和最近的危機教訓,說明多樣性是保護金融體系的最佳方式。
一本講述金融危機、金融風險為什么會發(fā)生、如何衡量風險,以及用多樣化金融體系來應對金融危機的書。既回應了歐美銀行業(yè)危機等現(xiàn)實問題,也前瞻了人工智能與銀行監(jiān)管等未來難題。
喬恩·丹尼爾森
倫敦政治經(jīng)濟學院金融學教授,系統(tǒng)性風險研究中心主任,著有《金融風險預測》《全球金融體系:穩(wěn)定與風險》。
導 讀 003
第一章 駕馭老虎 001
第二章 系統(tǒng)性風險 009
第三章 土撥鼠之日 033
第四章 風險的圓形監(jiān)獄 061
第五章 風險計量儀的迷思 087
第六章 想法很重要:風險和不確定性 113
第七章 內生風險 131
第八章 如果你不能承擔風險,請更換風險計量儀 155
第九章 “金發(fā)姑娘原則”的挑戰(zhàn) 179
第十章 風險表演 203
第十一章 一致、效率和穩(wěn)定的三難困境 229
第十二章 鮑勃的故事:機器人和未來風險 249
第十三章 不該走的路 271
第十四章 該怎么辦 293
致 謝 311
注 釋 313
參考文獻 319
譯后記 327
第十二章
鮑勃的故事:機器人和未來風險
AI是什么
計算機說不!ㄌ}爾·比爾
關于AI的文章已經(jīng)有很多,這里沒有必要重復介紹。我強烈推薦斯圖爾特·羅素的《AI新生:破解人機共存密碼——人類*后一個大問題》這本書。但我想闡述一下我的立場,所以請耐心聽我說。AI背后的理念是計算機通過了解世界的種種來獨立決策。它能做像玩游戲一樣簡單的事情,也能完成像開車一樣復雜的事情,它甚至可以監(jiān)管金融體系。對AI進行描述并不簡單,甚至連專家也無法達成共識。先從機器學習開始說,機器學習是一種計算機算法,使用可用數(shù)據(jù)來了解產生這些數(shù)據(jù)的世界。這種算法研究所有規(guī)律和復雜的因果關系。神奇的是,它可以在沒有人為干預的情況下做到這一點,即無監(jiān)督學習。這與我們通常從事科學研究的方式不同。一般的做法是,我們首先對世界運行的可能方式提出一些想法(某種理論),然后看看數(shù)據(jù)是否與該理論相容。
一家超市可以用機器學習算法來確定店內銷售可口可樂的*佳位置,以實現(xiàn)銷量*大化。數(shù)據(jù)科學家通常需要收集可口可樂的銷量、天氣和人口統(tǒng)計等歷史數(shù)據(jù)。他用機器學習算法處理這些數(shù)據(jù),然后告知超市貨架上銷售可口可樂的*佳位置。這將涉及大量的數(shù)據(jù)。對于像沃爾瑪這樣的連鎖零售商來說,這通常意味著千萬億條數(shù)據(jù),即所謂的大數(shù)據(jù)。*關鍵的是,機器學習算法不需要了解關于可口可樂或超市的任何信息,而只需要獲取銷售相關數(shù)據(jù)并發(fā)現(xiàn)規(guī)律即可。
但天下沒有免費的午餐,有得就有失。機器學習需要大量的數(shù)據(jù),遠遠超過大多數(shù)統(tǒng)計應用所需要的。它需要大數(shù)據(jù),因為它對世界一無所知,所以必須從數(shù)據(jù)中學習一切。相比之下,人類了解世界,可以用先前掌握的信息,包括文化、經(jīng)濟、歷史等來解決問題,因此需要的數(shù)據(jù)要少得多。我們了解理論,所以小數(shù)據(jù)集就可以滿足傳統(tǒng)統(tǒng)計工具的需求。
機器學習為的是從數(shù)據(jù)集中提取信息,而AI的目標是基于這些數(shù)據(jù)做出決策。如今,AI已經(jīng)被用來做很多決定。在21世紀初的一部英國喜劇《小不列顛》中,有一幕反復出現(xiàn)——銀行信貸職員卡蘿爾·比爾每次面對客戶的問詢,他都在電腦上打字,然后回答:“計算機說不!奔词故菍*合理的要求也是如此。
不過,AI這個詞有點用詞不當。當下AI的智能和人類的聰明不一樣。它只知道很多假設性的指令。比如,如果交通信號燈紅燈閃爍,司機就停下來;如果綠燈閃爍,司機就看看交通狀況再走。AI在某種程度上想要復制人類的大腦。人類大腦平均有860億個神經(jīng)元,它們通過突觸相互連接,形成神經(jīng)網(wǎng)絡。理論上,一臺擁有足夠多人工神經(jīng)元的計算機,若以同樣的方式連接起來,就可以變得智能。但我們還沒到那個階段,F(xiàn)在AI的智能還只停留在普通昆蟲的水平,比如蟑螂。它們是較聰明的昆蟲之一,能夠學習和適應環(huán)境,甚至還被認為是唯一一種能在核戰(zhàn)爭中幸存的動物。它們不是*具社會性的動物,但確實表現(xiàn)出復雜的社會行為。AI還沒有趕上蟑螂。用理論物理學家加來道雄的話來說,“目前,我們*先進的機器人加起來的智能和智慧與一只蟑螂相當,還是大腦遲鈍的蟑螂,一只被切除額葉的智障蟑螂”。1
以英特爾聯(lián)合創(chuàng)始人戈登·摩爾的名字命名的摩爾定律指出,一個芯片中的晶體管數(shù)量每18個月會翻一番。這個定律有用嗎?與我辯論的那位技術愛好者所提倡的就是這個定律。我讀博士時,曾在一臺2 700萬美元的Cray Y-MP超級計算機上運行過計算機代碼。當時我們要排隊使用這臺計算機,一個經(jīng)濟學博士生的需求也得不到優(yōu)先滿足。但我了解到周日排隊的人不多,所以我周日早上4點起床去辦公室,就可以獨享這臺計算機一段時間了。我經(jīng)常這樣做。我*近在巴黎的時候,在科學博物館看到了一臺Cray Y-MP超級計算機。我口袋里蘋果手機的運行速度是這臺計算機的很多倍。從我出生前到現(xiàn)在,計算速度一直呈指數(shù)級增長,而且沒有放緩的跡象。
摩爾定律能幫助AI趕上人類智力嗎?簡短的回答是否定的。摩爾定律是有關計算速度的增長,但AI追趕人類的問題不在于速度,而在于概念。不管計算機有多快,現(xiàn)在的AI算法的質量根本無法幫助我們走得很遠。然而,突破可能會在一夜之間發(fā)生,有人可能已經(jīng)想出了一種全新的算法,讓AI超越人類。但這一切可能永遠也不會發(fā)生。
專家稱這種可能性為技術奇點,一些人認為這并不遙遠。谷歌的工程總監(jiān)雷·庫茲韋爾表示:“2029年是我一直預測的年份,屆時AI將通過有效的圖靈測試,從而達到人類的智能水平。我把2045年定為‘奇點’年份,到那時,通過與我們創(chuàng)造的智能相結合,我們的有效智能可以實現(xiàn)10億倍的增長。”
然而,我們并不需要到達奇點才能讓AI發(fā)揮作用。AI不需要達到人類智能的水平,甚至不需要蟑螂或螞蟻智能的水平才能有用。問題越具體,AI的表現(xiàn)就越好。所以,AI擅長玩規(guī)則已知且目標明確的游戲。*近一個著名的AI應用是谷歌的阿爾法元,它只接受了關于圍棋游戲規(guī)則的指導,就能在三天的時間里學會如何戰(zhàn)勝它的前身阿爾法狗,后者早些時候擊敗了圍棋世界冠軍。
擅長玩復雜的游戲就意味著擅長做其他事情嗎?很多人都這么認為。蘇聯(lián)人很尊敬本國的棋手,認為如果一個人能夠掌握國際象棋的復雜策略,就應該能夠管理中央計劃經(jīng)濟或在戰(zhàn)爭中取勝。列寧是一個厲害的棋手,斯大林更是如此。然而,擅長下棋的AI更像一個白癡神童,就像電影《雨人》中的主角一樣。擅長下棋并不能說明它是否有做其他事情的能力,比如監(jiān)管金融體系或駕駛汽車。在像國際象棋這樣的游戲中,玩家可以采取的行動數(shù)量事先是確定的,并且所有關于游戲狀態(tài)的信息對玩家來說都是可見的。用博弈論的語言來說:信息是完整的,行動空間是有限的。
這也是AI可以(在一定程度上)駕駛汽車的原因:有很多信息可供AI學習,規(guī)則易于理解而且不會有太大變化。即便如此,AI也只能在高速公路上行駛,而且天氣不能太糟糕。AI是不可能在城市里開車的,更不用說在大雪天所有交通標志都看不清楚的時候駕駛。也許對駕駛汽車的AI來說,*大的挑戰(zhàn)是人類。人類是不可預測的,我們的行為方式可能會讓自動駕駛汽車感到不安。所以,一些AI設計師提議對人類行為進行重新規(guī)范。3
當AI面對的不再是棋盤游戲和高速公路駕駛這樣具體的任務時,它的表現(xiàn)就會變差。它不擅長玩那些信息不完整、行動空間不明確的游戲。我認為它不會在我*喜歡的游戲《外交》中有很好的表現(xiàn)。我曾經(jīng)和幾個朋友在網(wǎng)上玩《外交》,其中一位是政客。他毫不費力地擊敗了我們,表現(xiàn)出其他選手所沒有的狡猾和策略。我覺得人工智能在短時間內不可能打敗他。如果規(guī)則在游戲過程中發(fā)生變化,那么AI面臨的挑戰(zhàn)就更大了,但大多數(shù)人類活動都會出現(xiàn)規(guī)則的變化。
我自己有一個檢驗機器人和AI的測試。我可以付給一個從未來過我家的人100美元來幫我洗衣服。他來到我的大學辦公室,我給他錢、鑰匙和我家地址。他找到我家,進去找到我的洗衣籃和洗衣機,弄清楚如何操作機器,在哪里可以找到洗滌劑。他洗好衣服,放進衣柜,離開,把鑰匙從我家門上塞郵件的縫里塞進去。在做這一切的過程中,他都不需要任何解釋或指示。這種技術存在的時間比我的年齡還長。要是AI有一天可以做到這一點,那我將相當欽佩。
英格蘭銀行的機器人:鮑勃
幾年前,英格蘭銀行首席經(jīng)濟學家安迪·霍爾丹設想了一種控制金融體系的新方法,監(jiān)管者將“近乎實時地(想象一下他們坐在《星際迷航》中的椅子上,使用一組監(jiān)視器)跟蹤全球資金流動,就像監(jiān)控全球天氣系統(tǒng)和全球互聯(lián)網(wǎng)流量一樣。他們關注的是全球金融流動圖”。4我們就把這個監(jiān)管者稱為鮑勃,全稱英格蘭銀行機器人(見圖12-1)。鮑勃是監(jiān)管英國金融體系的未來AI。鮑勃將收集所有的數(shù)據(jù)和人類行為,并用它們來識別所有的突發(fā)事件,識別脆弱性、低效和系統(tǒng)性風險。進一步假設,其他主要金融中心也開發(fā)了自己版本的鮑勃,比如弗蘭和伊迪斯,而且所有AI都展開友好合作。各個金融機構也將有自己的AI,比如格斯、瑪麗和貝蒂等。這是一個注定要失敗的不切實的未來愿景,就像20世紀70年代的飛行汽車一樣嗎?不。雖然鮑勃和它的其他AI朋友還不存在,但是創(chuàng)造它們的技術已經(jīng)存在了,大部分都存在了,我們缺乏的只是意愿。
微觀審慎監(jiān)管機構已有機器人監(jiān)管者。監(jiān)管科技(RegTech)——其英文為監(jiān)管(Regulation)和技術(Technology)兩個單詞的縮寫——成了備受關注的流行詞。其主要支持者英國金融行為監(jiān)管局將監(jiān)管科技定義為“使用新技術來促進監(jiān)管要求的實施”。在過去的幾年里,我參與了英國金融行為監(jiān)管局、我所在的研究中心和其他感興趣的各方進行的一個聯(lián)合監(jiān)管科技研究項目。
一切從規(guī)則手冊開始。如果把所有監(jiān)管規(guī)則和法規(guī)打印出來,打印出來的紙張會有兩米高。英國金融行為監(jiān)管局已將規(guī)則輸入AI引擎,以檢查規(guī)則是否存在矛盾之處,并提供更快、更好的建議。與英國金融行為監(jiān)管局機器人通信的金融機構發(fā)現(xiàn),它的回答比人類同事好得多。AI也正在徹底改變銀行的風險管理。建立風險管理AI的第一步是開發(fā)和管理風險測量方法,這對AI來說是一項簡單的任務。它可以快速學習所有已批準的模型,數(shù)據(jù)可以很容易獲得,并且設計風險測量方法也很容易。如今,許多金融機構的AI引擎正是這樣做的。然后,AI需要了解一家銀行的所有投資,以及做出這些投資的個人。這樣,我們就有了一個可以正常運行的風險管理AI。必要的信息已經(jīng)儲存在銀行的信息技術基礎設施中,風險管理過程中也不存在不可逾越的技術障礙。如果有,就使用阿拉丁系統(tǒng)或風險計量系統(tǒng)來克服。這樣做將節(jié)省巨大的成本。銀行可以用AI取代大多數(shù)風險建模師、風險經(jīng)理和合規(guī)官。技術已經(jīng)存在了,剩下要做的就是將銀行的高層目標告知AI。然后,AI就可以自動管理風險,建議誰被解雇或獲得獎金,并就如何投資提出建議。
風險管理和微觀審慎監(jiān)管是AI的理想用途——利用大量結構化數(shù)據(jù)確保明確的規(guī)則和流程得到遵守。它們可以接觸到有關人類行為的監(jiān)測數(shù)據(jù),得到精確的高層目標的指導,并產生可以直接觀察到的結果。就像玩游戲的應用場景一樣,監(jiān)管場景中的信息大多是完整的,而行動空間是有限的。雖然還有一定差距,但技術進步的軌跡讓我們深信AI有一天可以完全實現(xiàn)當前的許多功能。我們面臨的主要障礙不是技術,而是在法律、政治和社會方面的考慮。
但是宏觀審慎監(jiān)管是一個不同領域的問題,因為AI在該領域實現(xiàn)良好表現(xiàn)的所有先決條件都不存在。數(shù)據(jù)是稀缺的,宏觀審慎監(jiān)管涉及的事件大多是獨特且偶發(fā)的。畢竟,經(jīng)合組織成員平均每43年才會遭遇一次系統(tǒng)性危機,所以可供AI訓練的數(shù)據(jù)很少。更糟糕的是,監(jiān)管當局和私人機構從過去的危機中吸取教訓,往往不會重復犯錯,但是會制造出新的錯誤,使AI無法應對。在*近的一篇論文《人工智能和系統(tǒng)性風險》(本章其余部分基于該研究)中,我與兩位合作者羅伯特·麥克雷和安德烈亞斯·烏特曼一起研究了AI執(zhí)行宏觀審慎政策所面臨的主要問題。我們認為有四個方面需要特別關注:順周期性、未知的未知因素、缺乏信任,以及反系統(tǒng)的優(yōu)化。
銀行業(yè)本質上是順周期的。銀行在經(jīng)濟景氣時自由放貸,刺激了繁榮;而當形勢惡化時,它們反過來又收縮放貸,導致信貸緊縮。現(xiàn)代金融法規(guī)和風險管理實踐對風險計量儀和風險儀表盤的依賴,進一步加劇了順周期性。風險計量儀查看近期的歷史價格數(shù)據(jù),如果數(shù)據(jù)看起來穩(wěn)定,那么風險計量儀的風險讀數(shù)就低。問題在于,價格數(shù)據(jù)在上漲時往往比在下跌時更穩(wěn)定,任何回顧式的、數(shù)據(jù)驅動的過程,包括AI背后的機器學習過程,都將認為在市場平靜時期風險較低,在危機之后較高,所以測量風險過程本身就是順周期的。我們對風險計量儀輸出結果的使用也是順周期的。這些結果會影響風險控制系統(tǒng)和監(jiān)管,因此那些負責風險投資決策的業(yè)務經(jīng)理、信貸員及交易員也會放大金融周期。當然,這并非源于AI本身的問題。但我認為,由于AI以特殊的方式與風險測量和管理產生相互作用,這個問題變得更加嚴重。
金融機構和監(jiān)管機構的AI引擎都可以使用相同的數(shù)據(jù)和機器學習技術,都擁有重要的計算資源。各種AI引擎將不可避免地以比人類風險建模者更快的速度選擇同一個風險計量儀,從而實現(xiàn)知識的統(tǒng)一。AI還將統(tǒng)一行動,協(xié)調金融機構對新信息的反應。它比人類更能理解*佳實踐,知道應該做什么,不該做什么。AI將推動銀行以同樣的方式管理風險。所有這些都是順周期的,因為它們與銀行的客觀功能相互作用,在已有限制下實現(xiàn)利潤*大化。各家銀行獲得的信息越相似,它們的解決方案就越接近。這意味著出現(xiàn)擁擠交易,金融周期被放大。歸根結底,AI之所以具有順周期屬性,是因為它傾向于單一栽培。由于AI比人類風險管理人員擁有更多的信息,因此從整個行業(yè)來看,它推薦的解決方案會變得越來越相似。但即便如此,如果沒有所有外部約束(*重要的是監(jiān)管法規(guī)),AI也不一定是順周期的。監(jiān)管法規(guī)和AI之間的相互反饋,是單一栽培和系統(tǒng)性風險*危險的驅動因素。
如果我們要求AI管理金融穩(wěn)定,那它會去哪里尋找危險?從事后來看,2008年金融危機有很多預警信號,許多人批評人類監(jiān)管者錯過了所有這些信號。AI能做得更好嗎?不太可能。對于基于次級抵押貸款開發(fā)結構性信貸產品并為其提供隱形流動性擔保的做法,如果沒有對其在多個行政轄區(qū)、不同類別機構和國家產生的后果進行觀察和總結,那么AI就無法進行學習?梢韵胂,在2008年,一個設計良好的AI引擎可能已經(jīng)注意到房價、抵押貸款違約和違約相關性(決定CDOs價格的幾個因素)之間的聯(lián)系。它還可能意識到流動性蒸發(fā)時結構性信貸產品的脆弱性。但是,即使AI識別出了每一個單獨的元素,它將所有元素組合在一起的可能性也相當?shù),而這是發(fā)現(xiàn)體系的一系列脆弱性所必需的。這對AI、銀行和各國金融當局都提出了很高的要求,各國金融當局必須允許數(shù)據(jù)驅動式的國際監(jiān)管深度介入各國的數(shù)據(jù)和監(jiān)管中。
能否成功發(fā)現(xiàn)金融體系中的系統(tǒng)性風險,取決于脆弱性在哪里。有充分經(jīng)濟理論支撐的日常因素會驅動金融危機出現(xiàn)。然而,每個危機事件的底層細節(jié)通常都是獨特的。每次危機過后,監(jiān)管者和金融機構都會吸取教訓,調整流程,避免再犯同樣的錯誤。