學術堂首頁 | 文獻求助論文范文 | 論文題目 | 參考文獻 | 開題報告 | 論文格式 | 摘要提綱 | 論文致謝 | 論文查重 | 論文答辯 | 論文發表 | 期刊雜志 | 論文寫作 | 論文PPT
學術堂專業論文學習平臺您當前的位置:學術堂 > 經濟學論文 > 金融學論文

金融科技算法風險規制的問題和路徑優化

來源:政法論叢 作者:王懷勇
發布于:2021-02-09 共21472字

  摘    要: 隨著算法在金融領域應用的深入,算法固有的缺陷和特性也逐漸與金融本身的風險和邏輯發生耦合,形成了算法歧視、算法綁架、算法趨同等新型金融風險。然而,現有的金融科技算法規制框架存在主體、對象和工具層面的諸多問題,導致金融科技算法風險規制的低效和失靈,因而需要進行規制路徑的優化和調適。從主體層面出發,應構建以金穩會為基礎的規制協調機制和監管者、行業協會、企業分工合作的多元規制格局;從對象層面著手,應在將所有算法應用業態納入統一規制框架的基礎上,確立以“數據規模”為標準的規制門檻;從工具層面調整,應構建以“快捷沙盒”為制度載體的算法測試制度和可選擇的算法披露機制,并積極探索自動化監管模式和代碼規制的落地和應用。

  關鍵詞: 金融科技; 算法風險; 算法規制;

  Abstract: With the sustained and in-depth application of algorithm in the financial industry,the inherent defects and characteristics of algorithm are gradually coupling with the risks and logic of finance itself,and consequently forming new types of risks such as algorithm discrimination, algorithm abduction, algorithm convergence and so on. However,the existing regulatory framework and legislation on algorithm of fintech have many problems at the level of subject,object and tool,which lead to the inefficiency and failure of regulating algorithm risk of fintech. Therefore,it is necessary to restructure and adjust the regulatory approach and model. At the subject level,it is imperative to construct a regulatory coordination mechanism based on the Council for Financial Stability and Development of the State Council,and a persified regulatory framework with cooperation among supervisors,industry associations and enterprises. At the object level,a regulatory threshold based on “data scale”should be established on the basis of integrating all algorithmic application formats into a unified regulatory framework. In terms of tools,it is necessary to establish an algorithm test system based on “sandbox express”and an optional algorithm disclosure mechanism, and actively explore the implementation and application of automatic supervision and regulation by code when regulating the algorithm risk of fintech.

  Keyword: fintech; algorithm risk; algorithm regulation;

  算法作為智能技術的驅動核心,正逐漸從“數據處理工具”向“自主決策主體”轉變,并呈現出“算法接管一切”的未來趨勢。隨著算法在金融領域應用的深入,算法交易、智能投顧、智能風控、自動合規等以算法為核心驅動的金融科技產品不斷涌現,金融業態由“人力金融”走向“科技金融”,金融市場從“華爾街”走向“硅谷”,“算法金融”的創新邏輯刷新著金融界的思維、眼界與想象。然而,算法與金融的耦合帶來的不僅僅是絢爛的景象,也帶來了難以預知的風險、問題與危機。2010年5月6日,美國股票市場突然暴跌,道瓊斯平均指數10分鐘內下跌近千點,創1987年股災以來最大跌幅,并在之后20分鐘內急速回升至暴跌前水平,引起了股票市場的巨大恐慌。1在這個事件中,算法交易扮演著核心主導者的角色。2因此,隨著算法融入金融進程的加速,部分監管者已敏銳察覺到這一新興風險的苗頭,并積極開展監管研究,以期回應實踐所需。
 

金融科技算法風險規制的問題和路徑優化
 

  2018年3月,歐洲監管局聯合委員會(Joint Committee of The European Supervisory Authorities,JCESA)發布《關于大數據的最終報告》,圍繞“穩健的大數據處理與算法”、“金融消費者保護”和“大數據披露”三個范疇提出了一份“行為與組織指引清單”,以供金融機構遵循。[1]新加坡金融管理局(MAS)于2018年發布《新加坡金融業使用人工智能和數據分析時的公平、道德、問責和透明度原則》(簡稱《FEAT原則》),針對金融業算法模型應用中出現的算法歧視、綁架等問題,提出了“公平”、“道德”、“問責”、“透明”四項原則(FEAT原則)。[2]我國香港金融管理局(HKMA)于2019年也先后發布《人工智能的高層次原則》[3]和《關于被授權機構使用大數據和人工智能的消費者保護指導原則》[4](簡稱《人工智能消費者保護原則》),就香港銀行業應用人工智能時存在的算法黑箱、歧視等問題,提出了包括算法可解釋性、算法測試、算法公平、算法倫理等方面的要求。

  與監管層的摸索同步,理論界也開始對算法風險及其規制問題展開反思和探討。新加坡MAS首席金融科技官Mohanty發言稱,監管者應“想清楚,如何對算法進行監管,因為算法是自運行、自我學習的,自我學習之后有可能會失控”。[5]我國學者也認為“算法趨同會產生順周期性,算法歧視會損害金融消費者權益,對算法的監管因此要提到日程上來”。[6]P18此外,還有一些學者對金融行業中出現的算法不完備等問題的法律規制路徑進行了探討。[7]總體來說,現有研究不夠充分,學術討論氛圍亦未形成。因此,本文嘗試以風險規制為切入點,通過對金融科技的算法風險進行剖析,探尋我國金融科技算法風險的規制路徑和方案。

  一、金融科技算法風險的現實隱憂

  以1987年算法交易技術為起點,算法逐漸替代人類成為金融市場的“主體”并獨立擔任金融合約的“締約者”乃至金融資源的“調配者”,算法權力也逐漸開始替換乃至覆蓋人的金融權利。在這一“主體化進程”中,算法的內生缺陷不斷暴露,并與金融結合形成諸多新風險形式,反噬并危及金融體系的和諧與穩定。

  (一)算法歧視:金融公平權的“名存實亡”

  信息技術的內嵌實現了金融業交易渠道的拓寬、交易流程的再造和交易成本的縮減。“水泥金融”向“指尖金融”的轉型使得廣大小微投融資者可以不受專業或資金門檻的限制,也無需理解貨幣基金的復雜概念和原理,就能享受方便、快捷和實用的金融服務。[8]P103同時,創新金融業態的出現意味著壟斷的破除,有助于形成更加公平的市場價格。在信息技術的推動下,金融服務的可獲得性、金融價格的公平性的共同實現,為金融公平權的理論證成和現實檢驗提供了堅實的要素基礎。然而,算法固有的歧視性數據取舍、偏頗性數據捕捉的風險對金融公平權的理性維護提出了嶄新又嚴峻的挑戰。[9]P60以智能投顧為例,智能投顧的運行邏輯包括客戶畫像生成、投資組合建議形成以及交易指令生成和執行三個階段,[10]P51其中,前兩個階段最容易形成算法偏見?蛻舢嬒裰饕揽克惴▽ν顿Y者的行為數據、社交情況、交易記錄、財務狀況等數據進行匯集、“清洗(篩選)”和建模分析,以描繪出客戶的財產狀況、投資經驗、風險吸收能力及投資偏好等“數字形象”,作為服務定價和產品抉擇的基礎。由于智能投顧數據收集渠道的有限性,非完全性的數據可能描繪出片面性的客戶人格特征;或者因為對客戶數據的“清洗”未能有效篩除“蘊含偏見的數據”,導致客戶畫像的結果可能成為“社會結構性歧視的延伸”;[11]或者基于智能投顧在挖掘客戶數據時,“大量的數據可能會導致不同事物之間產生新的相關性,但相關性并不意味著因果性,并可能導致算法基于這些數據的錯誤決策”,[1]P14產生“統計性歧視”。而投資組合建議是在客戶畫像給定的前提下,搜選、梳理和研判市場產品的投資價值、收益邏輯、風險結構等多維數據,并通過算法內設的投資組合模型,依照不同資產之間的相關性以及資產風險因子來構建“最優有效前沿投資組合”,實現對市場的高精度判斷。[12]P85但算法內嵌的投資組合模型都是由算法設計者編入的,無法避免算法設計者的主觀偏見和“效率偏見”:于前者,算法設計者可能將自己的主觀偏見嵌入算法系統,導致算法在研發階段存在主觀上的“價值負載”,造成算法存在偏重本公司利益或某些客戶的利益而忽視其他客戶利益的固有偏見或缺陷”;[1]P30于后者,算法可能基于市場主體的“效率邏輯”,以經濟利益為唯一因素來作出決策,忽略諸如平等、自由、安全、人權等其他價值指標的重要意義。例如,算法根據客戶的價格敏感度,向其推送不同價位的投資組合產品,造成算法“展現給窮人的世界就是窮人的世界,展現給富人的世界就是富人的世界”。[13]P36

  正是基于“片面數據性歧視”、“延伸性的社會結構性歧視”、“統計性歧視”、“主觀性歧視”和“效率性歧視”,算法不僅沒有真正解決金融資源配置的不平等問題,反而在科技層面固化了金融歧視和金融排斥。同時,算法本身披著客觀理性和價值中立的“外衣”,標榜以電子算法解碼“生物算法”的科學口號,[14]P335容易讓金融公平權成為一種虛妄的自我欺騙。這點在美國征信公司FICO信用評分算法上體現得淋漓盡致。FICO所推出的信用評分算法一度被認為解決了傳統貸款市場只服務于有抵押借款人或高資產借款人的貸款歧視問題。然而長期以來,美國征信市場卻頻繁出現信用評分錯誤率較高,信用評分決定因素和信用降級理由不明確,征信機構不對低信用評分進行解釋等問題,甚至有企業利用低評分信用報告對女性、少數族裔和社會心理殘疾者給予歧視性待遇。[15]P8

  (二)算法綁架:金融選擇權的“隱性控制”

  金融消費者在享用智能算法匹配和推送所帶來好處的同時,也逐漸形成了對其模式和結果的過度依賴,導致算法決策逐漸“綁架”金融消費者的意志思維,[16]P153對消費者的金融選擇權形成“隱性控制”。具體來說,算法金融的綁架風險表現如下:

  一是通過信息繭房“綁架”金融消費者。“信息繭房”概念由凱斯·桑斯坦提出,以表示信息大爆炸時代所帶來的信息“片面性接收”問題,即“我們只聽我們選擇的東西和愉悅我們的東西”。[17]P8信息的“偏好導向型展示”雖有利于算法運營者的商業盈利,卻容易制造信息的“過濾泡沫”,導致用戶接受的觀點愈發極端。[18]P50長此以往,消費者的消費理念與消費意識將完全陷入算法所預設和編織的“信息繭房”,使消費者的消費選擇與“完全信息環境”下的選擇產生偏離。以“你關心的、才是頭條”為口號的今日頭條即是典型代表,其憑借個性化信息推薦成為國內移動互聯網領域成長最快的產品之一。[19]然而,今日頭條等內容推薦APP若只是推薦一般性社會新聞或生活類文章,那僅僅只是影響用戶的文化內容接收,若推薦的新聞或文章涉及金融投資教育或金融價值偏好,那會間接影響用戶的理財投資計劃和投資選擇能力,進而左右用戶對自身重要資產的配置實踐。

  二是通過優先推薦“綁架”金融消費者。在互聯網長尾市場中,數量龐大、種類繁多的金融產品和服務選擇早已超出了金融消費者的認知和處理極限,消費者難以在合理時間內窮盡所有的金融產品選項并研究出最適合自己的產品選擇,這就為算法影響金融消費者的選擇提供了契機。實踐中,諸如P2P、互聯網理財等平臺通常根據消費者的投資偏好,以欄目條的形式自上而下羅列可選產品,并通過頁面劃分控制每頁顯示的欄目數量。由于時間成本、心理前見等因素,金融消費者在瀏覽金融產品時一般只關注前幾頁甚至第一頁的信息。同時,某些算法因受到設計者的預置性規則或后天學習的偏差性認知影響,可能會安排某些特定的產品或項目以更高頻率的出現。這種行為隱秘地在金融消費者的自由選擇中添加了算法設計者“主觀偏好”或算法“塑造偏差”的影響,損害了金融消費者自主選擇金融產品的權利。

  三是通過誘導交易“綁架”金融消費者。算法通過向金融消費者推送“心動產品”、“最優服務”或“實惠價格”,煽動、誘導甚或欺騙金融消費者做出盲目、輕率和不理智的金融消費者行為。美國證券交易委員會(SEC)在2015年查處并起訴了一起相關案例。該案中,被查處的金融機構及其負責人“授權使用了一種專有交易算法,該算法在一個原本透明的證券市場上向客戶隱藏了證券的真正價格”,導致“客戶支付的費用遠高于所披露的證券買賣傭金”。[20]因此,“誘導交易”利用了金融消費者沖動、偏執、盲從等人性弱點,也是一種對金融選擇權的“隱性控制”。

  (三)算法趨同:金融波動性的“雙向強化”

  所謂“算法趨同”,就是同一應用領域不同算法系統之間相互滲透、交叉演化,朝著實現相似功能或輸出相似結果的方向邁進的趨勢。在金融領域,算法趨同風險可能加劇金融市場的雙向波動,危及金融市場的整體穩定和良性運轉。具體來說:

  一是算法交易的趨同化投資策略可能導致證券市場價格波動的指數級放大。算法投資策略的基礎性種類并不復雜,不同證券公司研發的算法基礎投資策略可能存在交叉甚至重合,抑或證券公司通過直接購買算法交易產品的形式進行運營,造成因算法交易系統的類似或相同而導致投資策略的趨同化。以算法投資中最為基礎的“動量交易”和“均值反轉”兩大策略為例,動量交易策略的運用建立在“利好(利空)消息擴散”、“大額訂單分割”和“羊群效應醞釀”等前提之下,而均值交易策略的運用建立在“無利好(利空)消息”且股票價格脫離公司基本面價值的基礎之上,[21]P140需要根據算法交易對市場基本面和運行狀況的判斷作出。一旦算法對于基本面和市場狀況的理解、判斷及對應的策略選擇相同或相似,那么多家公司的算法可能同時作出“買入”或“賣出”某支或某些證券的決策,導致股價大幅波動。這種行為所產生的行情“上漲”或“下跌”,會刺激相關算法交易系統作出進一步“買入”或“賣出”決定,最終這些同樣“理性客觀”且“追求利潤最大化”的算法將通過不斷相互“刺激”造成資本市場劇烈波動,并可能引發個人投資者“非理性恐慌”和市場的“羊群效應”。

  二是智能投顧的趨同化服務可能加劇證券市場的順周期性。智能投顧的趨同化服務源自以下原因:首先,智能投顧研發商所采用的數據挖掘邏輯和投資組合理論趨同導致智能投顧底層架構的趨同化;其次,智能投顧運營商購買同一家金融科技公司的智能投顧產品導致智能投顧算法模型的趨同化;再次,投資者選擇同一家智能投顧產品導致智能投顧服務內容的趨同化。對于第一種原因的趨同化,智能投顧服務可能在宏觀市場繁榮時一致形成過于樂觀的投資預期,并勸誘投資者(或直接代替投資者)采取較為激進的風險投資行動,從而促使證券市場非理性繁榮,繼而又對智能投顧形成樂觀反饋,不斷提升樂觀預期并推高市場泡沫;而在宏觀市場低迷期,又因一致采取過于穩妥的保守投資策略,使得資本市場非理性萎縮并形成惡性循環。對于第二、三種原因的趨同化,智能投顧可能同時、一致地對某支或某組證券產生相同或相似的投資決策,從而導致市場資金過度集中,對市場造成巨大沖擊并造成市場失衡,[22]P52而資金的過度集中又會導致該支或該組證券價格的非理性拔高,對智能投顧形成“利好刺激”,導致更多的統買統賣、重漲重跌,最終引發系統性風險”。[23]

  三是信貸評估的趨同化模型可能增強信貸市場的順周期性。大數據算法在信用評估領域的應用有助于促進信用貸款從“關系型貸款”向“交易型貸款”轉化,但算法模型的相似性會帶來同質化競爭,產生順周期的問題,“形成市場的大起大落風險”。[24]與智能投顧類似,信貸評估標準的趨同有兩種原因:一種是由不同的信貸評估程序所采用的數據采集標準、數據挖掘標準、風險評估模型的趨同所導致,另一種是由不同信貸機構購買相同或類似的信貸評估服務所導致,如FICO信用評分算法。兩種趨同趨勢的出現促使商業銀行之間的信貸選擇和決策愈發具有一致性,“使得不少的銀行幾乎同步迅速擴張信貸,又幾乎同步收縮信貸,必然導致信貸的大幅波動,從而影響到市場的波動”。[25]

  二、金融科技算法風險規制的問題檢視

  隨著金融科技逐漸從貨幣數字化向數據貨幣化轉變,金融科技風險規制的框架也應重新考量,以涵蓋以前不必要的內涵。[26]P403然而,我國金融科技領域的算法風險規制存在主體、對象、工具等層面的問題,導致了金融科技算法風險的規制訴求與制度供給之間存在較大落差。

  (一)主體問題:分業規制與單中心思維

  一是風險規制目標不一致導致的市場認同問題。我國的金融分業規制體制使得“一行兩會”間難免存在風險規制理念、風險關聯知識、風險信息解讀等層面的不足,導致算法風險規制的目標存在偏差。例如,作為主導宏觀審慎監管的央行,更多將目標聚焦于算法趨同所導致的風險爆發和傳導問題,而作為主導信貸風險監管的銀保監會,則將目標更多放在算法歧視導致的信貸公平風險問題。目標預設的不同將通過規制規則呈現的風險態度、規制重點和監管傾向滲透入受規制主體的風險意識、規制認識和合規安排,并最終產生不同業態金融機構針對同種或類似的算法應用及風險承擔大相徑庭的合規負擔的情況,進而可能誘發監管風險:分業監管部門之間風險態度和規制話語的撕裂使得受規制主體產生一種“不公平感”,引發認知失調,而“人們為平衡認知便采取行動來拒絕、反抗不公平的法律”,[27]P89從而陷入風險監管的“認同危機”。

  二是風險規制標準差別化導致的監管套利和監管競次問題。不同標準具有各自的優劣勢,需要規制者立足具體的風險規制場景相機抉擇。在分業監管體制下,不同金融規制部門可能會選擇不同的標準設置路徑和構建模式,導致各業態間算法風險規制標準的差異,進而產生監管套利的空間。監管套利可能引發金融科技產品或服務的多層嵌套和技術遮蓋,造成風險鏈條和風險樣態更為混雜,增強規制難度。同時,標準主體的多元化也可能產生監管競次現象,使得監管機構陷入“放松監管的競爭”之中,[28]P86致使金融消費者保護和金融穩定淪為風險監管中“被犧牲的價值”。

  三是風險規制數據孤島化導致的視野遮蔽問題。金融科技促成了新的初創金融科技公司與老牌科技公司、電子商務公司等的同時“入場”,并與傳統的金融公司形成直接或錯位競爭。[29]P1276這對風險規制主體的信息可得、整合和處理能力提出了要求。然而,當前各監管機構之間缺乏數據共享的平臺。例如,在征信領域,央行一直沒有把部委數據有效打通、共享,部委數據形成了數據孤島。[30]P43數據隔離使得各風險規制主體的視野受限,缺乏對整體性風險的發掘能力,特別是在算法趨同風險領域。因業態隔離,證監會僅能對程序化交易及券商類智能投顧的風險數據予以監控,使得無論是證監會、銀保監會,還是央行都難以對算法驅動的投資交易全貌進行監督,導致金融規制主體的“有限視野”與算法趨同的“整體性風險”間形成難以調和的沖突。

  與金融科技算法風險分業規制的“略顯多余”相比,金融科技算法風險的“政府單中心規制”則顯得有些“勢單力薄”,難以對接內嵌算法的智能化金融的風險規制和法秩序訴求。首先是行業自律規制主體的缺位。中國互聯網金融協會作為互聯網金融風險的行業自律主體,根據《中國互聯網金融協會會員自律公約》第二條,主要負責互聯網支付、P2P網貸、股權眾籌等互聯網金融業務的風險自律規制。雖其可能對P2P網貸、股權眾籌等業務中的算法風險予以行業規制,但難以涵攝到智能投顧、算法交易等業態中的算法風險。中國證券業協會在《證券投資咨詢機構執業規范(試行)》第十四條、第二十四條僅明確了“算法模型形成的投資分析意見屬于投資建議的合理依據之一”和“證券投資咨詢機構從業人員不得在執業活動中以算法變相開展相關業務”,但并未涉及算法風險的規制。此外,雖然近些年中國消費者協會開展了一些金融消費者活動,但總體呈現“運動式”特征,常態機制尚未形成,也不存在針對金融科技算法風險的消費者保護行動。其次是企業自我規制的缺失。從市場實踐來看,“資本驅動”的企業愿意開展算法風險自我規制更多是源于市場內生的聲譽約束機制,即企業通過構建嚴格、公開的風險規制框架,強化市場對其產品或服務的信心進而爭取交易機會。然而,在算法金融市場,此種聲譽機制面臨“約束失靈”的窘境,原因在于:當前算法在金融領域的應用尚屬初期,許多業務及風險防范模式尚未成熟,難以形成良好的、社會普遍認同的風險自我規制原則和標準。例如,金融消費者何種情形屬于受到算法的歧視,算法的何種行為構成算法綁架,標準為何,當前并不確定。同時,當前金融科技企業體量龐大、種類繁雜,聲譽信息容易掩埋在龐大的信息流之中,難以傳遞到消費端。特別是許多金融科技初創企業客戶量較少,即使存在風險侵權事件,也容易因聲音微小而難以廣泛傳播。

  (二)對象問題:對象片面與規制負擔

  從實然層面來看,《關于規范金融機構資產管理業務的指導意見》(以下簡稱“資管新規”)、《證券期貨市場程序化交易管理辦法(征求意見稿)》(以下簡稱“程序化交易辦法”)已開始嘗試對智能投顧、算法交易等業務中的算法風險問題予以規范,在我國具有一定的現實意義。然而,從風險規制對象的角度看,現有制度文本存在如下問題:一是過窄的規制覆蓋面使得大量算法風險問題游離于現有金融規制體系之外?v觀當前立法,僅有《資管新規》和《程序化交易辦法》兩項規章,前者針對智能投顧中的算法風險提出了應對要求,后者針對算法交易中的風險進行了規范但尚未生效。根據規制系統結構理論,規制規則的制定是規制對象監督和規制規則執行的結構性前提,故規制規則的缺乏使得大量的金融科技算法風險問題游離于現有金融規制體系之外。二是分業規制的對象方案降低了規制執行的客觀效能。例如,針對算法趨同導致的市場波動風險,《資管新規》設立了算法差異化、風險預案和人為干預等制度,以避免智能投顧“算法同質化加劇投資行為的順周期性”并引發市場波動風險,而《程序化交易辦法》構建了申報核查管理、指令審核、交易異常處置和凈買入額度及開倉量控制等制度,以避免“程序化交易技術風險導致市場大幅波動”。這樣的“分業務”風險規制模式,既可能引發業務嵌套和監管套利,增加金融業務的結構性復雜度和算法風險規制的執行難度,也容易導致風險規制的“各自為政”,產生風險防范的漏洞。例如,智能投顧算法策略的差異化和算法交易投資決策的差異化得以被保障,但某些智能投顧的算法策略與某些算法交易的決策邏輯依然存在相似,使得資本市場中的趨同化投資行為依然存在。

  從應然層面來看,將金融科技算法風險問題納入統一規制框架是破解上述困境的有效路徑,然而,如此一來又可能導致風險規制成本過高,存在“規制過載”之嫌。金融科技算法本質上是一種數據處理和分析機制,算法的金融內嵌促使金融科技的業務邏輯從KYC (Know Your Customers)逐漸向KYD (Know Your Data)轉變,“數據”成為了金融和監管的“共同分母”。[26]P412這就對規制機構的數據抓取、整合和解讀研判能力提出了更高要求。當前金融監管機構的監管科技建設尚處于醞釀階段,“一行兩會”中僅證監會正式發布了監管科技建設框架,并處于第一階段的建設中,因此,要求監管機構對所有金融科技業態的算法風險予以規制和防范無異強人所難。此外,初創型算法金融企業是算法類金融創新的主力軍。然而,這些企業由于初期規模較小,資本、人力和結構尚不成熟,且大多以創新業務模式、挖掘市場空白、搶占市場“藍海”作為獲取競爭利益、贏得發展機會的主要抓手,因此,過多的風險合規投入可能使這些企業難以將資源集中于“創新發掘”和“市場開拓”,形成金融市場的“創新掣肘”難題。

  (三)工具問題:信息規制低效與命令控制型規制失靈

  當前,《資管新規》和《程序化交易辦法》主要采用了信息規制工具與命令控制型規制工具協同配合的規制組合,前者包括算法備案、算法披露、申報核查管理、交易異常公告等制度,后者包括算法差異化、人工干預、指令審核以及凈買入額度和開倉量控制等。然而,兩類工具在規制算法風險時不可避免地存在“效力缺陷”與“失靈風險”。

  一是信息規制工具低效的問題。當前的信息規制工具主要聚焦于自下而上的信息報送和平行主體的信息披露,前者旨在解決風險信息不透明的問題,為監管層的風險防范和處置提供信息基礎,后者聚焦解決市場主體間的風險信息不對稱問題,加強消費者的自我保護和“私權規制”能力。但兩者均存在一定不足。首先,算法的高度專業化使得信息供給的實效有限。例如,算法披露要求智能投顧運營商向投資者“提示人工智能算法的固有缺陷和使用風險”。但大部分算法風險不是算法本身的設計缺陷或部署失當導致,而是由所攝取數據的結構性偏差、數據本身的“關聯性”判斷邏輯、算法“以效率為本”的價值取向所造成。因此,僅“提示人工智能算法的固有缺陷和使用風險”難以防范消費者面臨的算法風險,而披露更詳細的編程數據和代碼邏輯又難以被消費者所消化和掌握,因而其效果實為有限。其次,信息供給深度受到合規成本和商業秘密的掣肘。以算法備案為例,其要求智能投顧運營商“向金融監管部門報備人工智能模型的主要參數以及資產配置的主要邏輯”。但算法備案應到哪種程度、算法更新應否備案尚未明確。若報備內容過細,可能存在侵犯算法運營者商業秘密之嫌,且算法運營商基于維護自身商業秘密,可能會采取“避重就輕”的方式掩藏關鍵信息,以監管部門的現有技術能力,能否理清“代碼邏輯”并發掘“信息遮蔽”仍然存疑。若報備過粗,算法備案可能面臨形式化窘境。若算法更新需要備案,那何種程度的算法更新需要備案也面臨合規成本或“算法失控”的兩難抉擇。最后,分散化的信息供給難以滿足算法風險全系統監控的需要。例如,申報核查管理制度要求程序化交易主體將“身份信息、策略類型、程序化交易系統技術配置參數、服務器所在地址以及聯絡人等信息及變動情況”向相關證券、期貨公司以及證券交易所申報,經核查后方可進行交易。這就使得算法交易的相關信息分布在各證券期貨公司和滬深交易所內部形成信息壁壘,導致交易所和監管部門難以警覺宏觀市場中算法交易策略和邏輯的趨同趨勢。同時,信息申報隔離亦會導致智能投顧和算法交易之間投資策略的趨同態勢易被監管部門忽視,形成風險監測的空白和漏洞。

  二是命令控制型規制失靈的問題。命令控制型規制工具符合我國長期以來的“科層式執法”習慣,因此受到政府的偏愛。然而,直接性的風險行為干預存在諸多問題,它受制于政府的風險規制能力、技術支持,以及對受規制風險的內在機理、規制的作用邏輯和實施效應的深度把握,盲目使用不僅可能導致風險規制目標難以實現,也容易誘發嚴重的非預期后果或衍生風險。[31]P125在算法風險規制中,命令控制型工具選擇的盲目和不成熟產生了諸多問題,具體說:首先,命令控制型工具的可操作性較差。例如,算法差異化制度要求算法運營商在自行或委托他人研發智能投顧算法時,應依照不同產品投資策略設計對應的算法,以防范算法同質化誘發趨同風險。然而,算法設計者與運營商僅能保證自己研發的算法具有差異性和多樣性,若想知曉其他金融機構的算法構造邏輯和內嵌投資策略并保證自有算法程序的異質性,不僅與保護商業秘密的立法取向相悖,也缺乏可實現的路徑。同時,在某一或某些投資策略和算法邏輯被證明具有“獲益優勢”甚至“最佳效益”的情況下,要求算法設計者和運營者放棄這些投資策略或算法邏輯,轉而選擇次優選項,也有悖商業效率原則。其次,命令控制型工具有阻礙市場創新之嫌。例如,凈買入額度控制制度要求證券公司、基金管理公司“自行確定交易單元控制額度”并向交易所“進行額度申報以及申請額度調整”,目的在于防控市場波動風險。然而,算法交易開發成本極為高昂,以至于“構建和維護這些錯綜復雜的巨無霸系統花費不菲,即使是巴菲特看了都得皺一下眉頭”。[32]設置額度上限可能使得許多算法交易開發者的前期研發投入難以獲得應有回報,打擊其創新優化算法的積極性,也容易導致采取某些投資策略的算法交易難以投入市場應用。最后,命令控制型工具的實際效果存疑。譬如人工干預制度要求算法運營商對算法因“模型缺陷或者系統異常”所導致的算法趨同和市場波動風險采取人工干預措施。然而,人工干預制度缺少責任承擔和監督主體的規定,存在一定模糊性。同時,算法趨同風險的爆發、蔓延和衍變速度極快,常在幾分鐘之內便形成市場大幅動蕩乃至系統性風險,要求算法運營商“及時采取人工干預措施,強制調整或者終止人工智能業務”,恐怕對于預防和化解風險收效甚微。

  三、金融科技算法風險規制的路徑優化

  要實現金融科技算法風險的有效規制,監管部門應調整觀念,將規制目光穿透到企業表層下的“算法主體”,并將規制視野更多從金融機構的行為規制轉向算法規制,進而在“規制去蔽”的基礎上,通過主體調適、對象調適和工具調適,實現金融科技算法風險的路徑再造和效能最優。

  (一)主體調適:規制協調與規制多元化

  1.橫向層面:以金穩會為基礎實現風險規制的統合與協調

  受制于我國金融規制競相割據的制度傳統,金融混業規制雖呼聲漸高,但卻非一蹴而就。直接將“一行兩會”合并為統一機構的方案不僅有“跨者不行”之慮,“顛覆式”機構變革也容易引發市場恐慌和秩序失調。更可行的方案是構建金融風險規制協調機制,實現算法風險規制目標、規制標準等事項的統合規范與協同再造。2017年11月成立的國務院金融穩定發展委員會(簡稱“金穩會”)即為規制協調提供了體制基礎,其旨在“針對突出問題加強協調,強化綜合監管”,以“補齊監管短板”。[33]因此,應以金穩會為基點,分層次推進金融科技算法風險規制協調機制的建設。

  首先,賦予金穩會相應法定地位和職權。當前,金穩會的主要定位是統籌協調金融穩定和改革發展重大問題,其職權較為有限。再加上地位、職權缺乏法律明確規定,其在履行職責時容易面臨缺乏法律依據或行政強制力的窘境。[6]P9-10因此,應通過立法確立金穩會跨市場的金融監管協調主體的地位,[34]P90賦予其穩定、獨立的財政預算和人員編制,使其成為一個常設、獨立的金融監管主體;同時,賦予其信息統合、監管協調、規章制定、權責配置等職權,并明確金穩會的主要職責為監管協調與規制整合而非風險規制行動的具體執行,以防范權力膨脹帶來的風險失控。

  其次,由金穩會統合和引導“一行兩會”形成統一的算法風險規制目標?紤]算法金融市場的不同風險,應以數據正義觀、代碼正義觀、算法正義觀為基本價值指向,[35]P20以保護“數字人權”為基本起點,以反算法霸權、反數據控制,維護消費者人格尊嚴和財產利益為根本指導,[36]P20-22將算法風險的規制目標確定為實現算法公平、算法透明、算法穩健和算法合倫理性。其中,算法公平既要確保算法在作出決策時合理地權衡、篩選了適恰的相關因素,又要確保算法輸出的結果并未有意或無意對某些金融消費者群體產生偏見;[3]P3算法透明應聚焦“有意義的透明性”,[37]P108即通過精巧的透明性規制策略,實現企業的商業秘密保護和算法披露全面性、有效性的動態平衡;算法穩健應關注算法與金融穩定的內在關聯,并通過數據評估、算法測試、程序監測和風險預警等協同配合,實現算法自主決策權維護與算法趨同風險防控的理性平衡;算法合倫理性應確保“算法決策行為”遵循基本道德準則和價值體系,實現“算法行為”與“人類行為”的異質共生、平等守則和互動有序。

  再次,由金穩會統合“一行兩會”、行業技術協會、企業等主體,在多元對話、互動協商的基礎上設計風險規制標準。監管層制定的風險規制標準為“原則性標準”,并將精細化操作標準的制定權授予相關行業協會,以推動“國家與民間互動、軟法硬法并重、雙向多元構建的”算法風險規制體系的塑造。[35]P36例如,算法透明的具體標準應包括程序透明、后果透明及可解釋性:程序透明要求算法應向金融消費者清楚說明“哪些類型的數據被用于算法決策運算”以及“該數據類型如何影響算法決策”;后果說明要求算法應明確向金融消費者說明“算法決策可能對它們造成的后果”;[2]P12可解釋性要求算法應向金融消費者作出必要解釋以確保消費者對算法決策及其風險的可理解性和認同度。

  2.縱向層面:構建監管部門、行業協會和企業分工合作的多元化風險規制格局

  多元化風險規制主體體系不僅能充分激活科層規制以外的其他風險規制機制,也能通過“規制對話”和“規制合作”彌補監管主體在專業知識和風險規制信息層面的不足。[38]P208多元協同風險規制格局的實現,不僅需要行業團體公益取向、自律結構的自我醞釀和企業社會責任、市場聲譽機制的自發生成,更需要通過相應的監管政策和措施,積極引導、激活行業協會和企業的主體意識和規制功能,最終形成一套層級化、差異化和精細化的“金字塔式”風險規制結構體系和運作秩序:“法規的/自愿的、正式的/非正式的、國家的/超國家的、等級制的/分散的”。[39]P128

  一是引導行業協會發揮算法風險自律規制功能。首先,調整行業協會的結構。中國互聯網金融協會可設立算法風險專委會,針對金融科技的算法風險設計自律守則、監督算法風險行為、指導風險自律行動。此外,鑒于算法歧視、算法綁架等侵權行為的隱蔽性和損害的微量性,金融消費者容易因侵權行為的“感知失靈”或維權成本—收益的“比例失衡”而難以或放棄采取維權行動。因此,通過團體力量采取統合性維權成為可行的替代機制。例如,中消協可下設金融科技算法侵權應對小組,明確其負有監督金融科技算法風險、制止算法侵權,救濟受損金融消費者的職能。其次,對行業協會進行賦權。監管機構可將部分精細化的算法風險規制規則授權給行業協會制定,并委托其執行部分具體事宜。具體來說,前者要求監管主體在針對算法風險制定規章和政策時,更多負責目標、原則性標準和包容性規則的制定,而把操作性標準、精細性規則的制定權賦予行業協會,實現“規則制定權”從“行政”到“行業”的再分配。后者要求監管主體在規章和政策中明確將算法風險監督權、糾正權和部分懲罰權授予行業協會,提升行業協會自律規制的權威性和執法效能。同時,明確中消協監督金融科技算法風險及侵權行為,代替消費者向算法運營者起訴,向相關監管部門提出申訴的權責,以團體力量應對算法風險對金融個體權益的侵害。

  二是激活企業的算法風險自我規制功能。首先,監管主體可以制定有關“算法合規控制”和“算法風險治理”的非正式指引(Informal Guidance),以傳達它對算法金融企業的期待。同時,該指引亦可表明監管主體重點關注的算法合規領域和未來可能采取監管措施的算法風險行為,使企業認識其可能面臨的算法風險治理責任。[40]P283這種非正式指引屬于監管層的軟法工具,不具有法律約束力,但因承接了監管層的行政權威性而會產生一定的實際指引和規范效果。[38]P69此外,該非正式指引構造起統一、穩定的金融科技企業算法合規準則和風險治理框架,有助于推動算法風險自我規制的社群規范從“隱性”走向“顯性”,從“雜亂”邁向“系統”。當前,域外諸多國家均采取了這一措施,例如JCESA《關于大數據的最終報告》所提出的“行為與組織指引清單”,即從算法穩健、金融消費者保護和算法披露三個層面提出了有關金融機構開展算法風險治理行動的建議。[1]P32-33其次,監管主體應鼓勵市場創立監管科技公司,由其接受金融科技公司的委托,對金融機構的算法合規情況和風險治理效度進行評估并發布“算法風險治理與合規報告”。[41]P23監管科技公司的定位類似于證券市場的“看門人”,其以自身的“聲譽資本”為擔保,對金融科技企業的算法合規情況和風險治理效度進行評估并發布相應的評價報告,[42]P3-4進而緩解“企業黑箱”與“算法黑箱”二元疊加所導致的信息偏在問題和“市場信息流”淹沒“企業個體信息”所導致的信息傳遞失靈。金融消費者通過閱讀該評價報告,即可對相關企業的算法風險治理效能有所了解,并通過“給予交易機會”和“同意使用個人信息”的方式對企業予以“聲譽性規制”,提高企業強化算法風險治理的外在聲譽壓力和形象塑造動力。

  (二)對象調適:業態統合和規制門檻

  1.構建“一體融合”的金融科技算法規制框架

  改變當前《資管新規》、《程序化交易辦法》根據具體算法應用業態分別制定監管規則的“多元立法”現狀,推出統一的金融科技算法風險監管規則。例如,新加坡MAS的《FEAT原則指引》提出了一套企業“在提供金融產品和服務的決策中使用人工智能和數據分析時應普遍遵守的原則”。[2]P3再如,我國香港地區的《人工智能的高層次原則》亦未區分具體業態,要求所有應用人工智能算法的金融科技企業遵循相應的監管指引和原則。[3]對算法風險予以“一體融合”式的法律規范和政策指導,其現實功效較為明顯:一方面,以往的被規制企業因監管規避或監管套利而實施算法業務嵌套和產品偽裝,導致算法風險混雜化或風險鏈條延展化的問題可被解決;另一方面,規制主體因監管競次而放松規制或怠于規制導致算法風險被有意忽視的問題能被避免,同時,因主體間規制空白或漏洞而引發的部分算法風險潛伏的問題亦能從源頭化解。此外,統一規制模式順應了我國金融科技監管從機構監管向功能監管轉變的歷史趨勢:即更多根據金融科技算法業務的統一功能———算法對數據的自動化收集、整合、解讀、預測和決策輸出,以及金融科技算法各類型風險的內在一致的機理和效果———數據或算法偏差導致的區別對待、個性化輸出引發的算法誘導、同質化算法行為造成的市場大幅震蕩等,作出“統一”的立法體例選擇和“體系化”的立法結構安排,將風險監管的焦點匯聚于金融科技算法風險內在蘊含的利益沖突和邏輯矛盾以及外在突顯的影響方式和損害形式,逐步消解傳統的機構監管體制與新形勢的風險樣態間的張力。

  2.以“數據規模”作為“規制與否”的門檻標準

  橫向的“業態統合”須伴隨縱向的“規模門檻”,以防止過嚴的規制要求扼制中小企業的生存空間與發展機會。但是,傳統的以“資本”為標準的門檻模式并不可取,因為“降崖式遞減”的算法運營“邊際成本”使得資本已難以反映算法的運營規模和影響范圍。例如,某些智能投顧企業可能資本較少,但其智能投顧算法的服務范圍和客戶數量卻相當廣泛。若采用“資本”標準,一方面,可能導致資本較高但科技應用較少的偏傳統型金融機構受到較嚴格的風險規制,而資本較少但科技含量高的新型金融機構反而享受規制放松的政策紅利,造成風險規制目標錯位和風險干預配置不均;另一方面,也可能“激勵”大型金融機構通過設立算法運營子公司規避監管負擔,誘發監管套利。

  對此,可以“數據規模”作為金融科技算法風險規制的門檻標準,即根據算法處理的消費者數據占相關金融市場消費者總數的一定百分比(例如1%)來確定是否對其予以規制。[43]P441-442將“數據規模”作為門檻標準主要基于兩點考慮:第一,算法本質上是數據處理和分析機制。以數據規模為標準更能反映算法的客戶總量、服務范圍以及算法風險的影響范圍,實現算法風險規制的干預強度、規制力度與風險量度、危害廣度的適配。第二,算法決策必須建立在豐富數據的基礎上。數據規模較小的金融科技算法,其風險隱患相對較低,監管者對其施以“門檻豁免”,有助于鼓勵其成長,呵護市場的競爭活力和創新動力。

  此外,為解決以“數據規模”作為規制門檻的實際操作問題,可從遠期與近期兩個角度加以設計。從遠期來看,自動化監管模式是一個可行方案,即通過將監管技術系統直連金融科技企業的算法后臺,監管技術系統可直接獲取、篩選和統計相應算法的數據處理量,并以可視化結構性表格的形式向監管機構報告。從近期來看,可以要求算法金融企業在進入市場前及進入市場后定期向監管機構報告其數據處理規模,[43]P441該報告應至少包括兩項內容:(1)本企業算法前三個月的月平均處理數據量;(2)本企業算法為消費者提供服務的地域范圍和行業范圍。定期報告能為監管者界定“數據規模”提供分析依據,同時,為了保證報告的真實性和準確性,立法應賦予監管部門對算法及其相關記錄進行現場檢查或技術檢查的權力。此外,若相關算法金融企業拒絕履行定期報告、接受檢查等義務或存在虛假報告等違法行為,可授權監管部門采取下列兩種懲罰措施:一是“規模假定”措施,即直接認定該企業符合規制門檻標準,并要求其滿足相關風險合規義務;二是“數據鎖定”措施,即禁止該企業通過任何途徑采集、獲取相關地區和行業的消費者數據。[43]P441

  (三)工具調適:激勵性規制與科技治理

  1.激勵性規制嵌入信息工具:算法測試與定制化披露

  一是依托“快捷沙盒”構建算法測試制度。針對強制性算法備案與算法審查的缺陷,可行的解決方案是監管主體向規制受體拋出放松監管的“橄欖枝”(即支付信息補償),換取規制受體對算法風險信息和相關知識的主動供給,而“快捷沙盒”為這種“激勵契約”提供了工具基礎。“快捷沙盒”根據新加坡MAS于2019年發布的《監管沙盒快速通道指引》設立,主要針對模式化較強、功能特征相似的金融科技產品或服務,依照預先厘定的規則制定實驗框架,對相關的產品或服務作“真實市場環境下”的實驗,以測試其性能,探究其潛在風險。[44]快捷沙盒具有對象特定、審批高速、架構明確、監控實時等特點,且其快速審批和監管豁免機制使得金融科技公司得以更低的監管標準、更快的審核速度和更少的合規成本在市場上運營其創新產品或服務,因而兼具鼓勵創新和防范風險的復合價值,能與算法的測試訴求和風險規制的目標形成深度契合。此外,快捷沙盒有助于塑造監管者與受監管企業之間協同合作、互動交流、雙向塑造的“對話式、學習式風險規制空間”,緩解算法風險規制面臨的信息偏在和知識壁壘問題。

  因此,可借鑒新加坡“快捷沙盒”機制,針對算法在金融領域的不同應用場景(智能投顧、算法交易等),分類別構建算法實驗的申請條件、監管豁免、業務范圍、測試時間、場景框架、實驗流程等沙盒架構和方案。滿足沙盒進入標準的金融科技企業,可以在無相關牌照或弱合規能力的條件下向金融監管者申請,并通過快速審批進入市場,在可控范圍內開展算法運營實驗,而監管者將向測試企業提供一定程度的違法豁免和規制指引,使其能在更具監管確定性和包容性的環境下,有效測試其風險。經過測試后,對于測試結果較好的算法,監管者可給予其較高的規制評級,并在監管資源分配、現場檢查等層面采取一定的傾斜性放寬;對于測試結果較差的算法,則應給予較低的規制評級,并科以較高的合規要求和干預力度,或者強令其購買相應的保險,建立損害賠償基金,以保證金融消費者的權益。[7]P55

  二是依托于“定制化披露”和“嚴格化披露”兩種披露模式,構建可選擇的算法披露機制。算法與金融消費者的實力失衡本質上屬于疊加了一定程度“知識不對稱”的“信息不對稱”,因此,算法披露不僅要實現算法信息的市場化和公開化,也要實現算法機理的簡單化和可視化?晒膭罱鹑诳萍计髽I推行“定制化披露”措施,即立足于“場景思維”理論,通過身份背景挖掘、客觀環境評估、交易場景再現、行為特征總結和心理狀態模擬等分析技術,繪制用戶畫像,實現金融消費者信息需求的深度發掘和信息推送的個體適配。[45]P82-83不過,限于當前金融科技企業合規能力和資金技術的局限,強制要求所有金融科技企業采用“定制化披露”無異強人所難。因此,不宜將“定制化披露”作為剛性要求,可嵌入激勵性結構,將“強制采用”轉化為“鼓勵選用”,構建起以“定制化披露”和“嚴格化披露”為基礎,可選擇的算法披露機制。

  具言之,應針對“嚴格化披露”和“定制化披露”方案分別設計相應的披露要求。對于“嚴格化披露”,監管主體應要求算法運營者披露該算法意義、功能、目的、風險,及作出自動化決策的理由和具體邏輯,包括但不限于系統的需求規范、決策樹、預定義模型、標準和分類結構等,并對上述信息予以必要解釋。[18]P59相關公司必須完整、全面披露和解釋上述信息,而不能以商業秘密或競爭利益為由拒絕。若企業不想暴露其商業秘密或損失其競爭優勢,可通過構建“定制化披露”系統,僅需分別對單個消費者披露“哪些數據用于作出該算法決策,這些數據如何影響該決策”,以及“算法決策可能對他(們)造成怎樣的后果(風險)”即可。[2]P12通過差異化的披露標準設計,相關企業會產生通過研發或購買個性化算法披露技術以減少合規成本和維護競爭優勢的內在激勵,因而可以推動“定制化披露”在市場的鋪開適用。此外,除了設置差異化披露標準,監管主體也可通過專業指導、技術供給和產品補助等形式進一步激勵金融科技企業對個性化算法披露技術的應用。

  2.科技治理嵌入命令控制型工具:自動化監管與代碼規制

  不論是英國2015年發布的《支持監管科技的發展與應用:意見征集》,還是我國證監會2018年連續發布的《中國證監會監管科技總體建設方案》(以下簡稱“監管科技建設方案”)《稽查執法科技化建設工作規劃》,監管科技已成為國內外金融監管改革的重點議題。因此,面對金融科技算法技術所帶來的新型風險,可嘗試在傳統的命令控制型工具中嵌入“科技治理”范式,破除當前金融科技算法風險的規制困境。具體來說:

  一是推動自動化監管模式的落地和應用。自動化監管技術以數據聚合和管理、應用程序接口和自然語言處理等技術為基礎,通過將監管的技術系統直連各個金融機構的后臺系統,[46]P84在被監管機構與監管機構之間建立一個可信、可持續和可執行的“監管協議和合規性評估、評價和評審機制”。[47]P76英國FCA即在與英格蘭銀行合作推動“數字法規報告”項目,旨在“探索如何通過技術將法規、合規程序、公司政策和標準與公司交易應用程序和數據庫鏈接起來”,以“為一種模型驅動的、機器可讀的監管環境提供可能”。[48]從優化算法風險規制工具的角度看,自動化監管促使規制受體從主動的、顯性作為的報告義務轉向被動的、潛移默化的數據上傳,并通過自動化數據共享實現監管信息的全系統流通,可以有效解決當前算法差異化制度缺乏有效監督手段和人工干預缺乏瞬時反應能力等問題。同時,作為數據處理中樞的算法,其自主分析過程的“邏輯隱層”使得傳統監督方式難以掀開“黑箱蓋子”,而同樣作為數據接收處理系統的自動化監管則能“繞過表層”直接“窺測到算法內部”。因此,針對算法風險存在的黑箱壁壘、瞬時突發、高速傳染等問題,以自動化監管作為算法風險規制的制度載體,將監管數據系統與算法數據處理中樞直接相連,無疑成為了當前規制手段革新的必由之路。當前,證監會印發的《監管科技建設方案》提出了監管科技建設三階段規劃,其中3.0階段即要求實現“業務流程的互聯互通和數據的全面共享”以及“實時數據采集、實時數據計算、實時數據分析”。央行、銀保監會也應積極開展相關研究并及早推出相關的監管科技建設方案,以實現我國金融風險監管的智能化再造。

  二是以代碼規制實現內嵌化監管。“代碼創設了算法的運行方式,其亦有反向管理算法的權能。”[13]P39在算法設計過程中,通過法律的價值和規則影響算法的回報函數,加強對決策算法的法律歸化,使其從陌生的、可能有危險的東西轉變成能夠融入社會文化和日常生活之中的馴化之物,成為了當前算法風險規制的必要環節。[49]P149Magnuson提出可在智能投顧和算法交易的算法中內嵌“斷路器”類型的規制工具,在不過分抑制算法決策行為的前提下有效減少市場波動,防止在各方急于止損時出現的多米諾風險效應。[50]P1218因此,當前監管部門規制工具改革的重要方向即,通過計算機程序的預置和代碼規則的內嵌來提高“命令控制”的針對性和準確性。在此模式下,監管者將扮演雙重角色:一是制定法律法規;二是與技術專家合作,將“法規代碼化”嵌于算法內部,從而使法律法規經代碼轉介而獲得實現。[51]P76-77

  參考文獻

  [1] Joint Committee of The European Supervisory Authorities.Joint Committee Final Report on Big Data[EB/OL].,http://h-s.www.esma.europa.eu.cslg.naihes.cn/sites/default/files/library/jc-2018-04_joint_committee_final_report_on_big_data.pdf,2018-3-15.
  [2] Monetary Authority of Singapore.Principle to Promote Fairness,Ethics,Accountability and Transparency(FEAT) in the Use of Artificial Intelligence and Data Analytics in Singapore’s Financial Sector[EB/OL].http://h-s.www.mas.gov.sg.cslg.naihes.cn/publications/monographs-or-information-paper/2018/feat,2019-12-26.
  [3] Hong Kong Monetary Authority.High-level principles on Artificial Intelligence[EB/OL].http://h-s.www.hkma.gov.hk.cslg.naihes.cn/media/eng/doc/keyinformation/guidelines-and-circular/2019/20191101e1.pdf,2019-11-1.
  [4] Hong Kong Monetary Authority.Consumer Protection in respect of Use of Big Data Analytics and Artificial Intelligence by Authorized Institutions[EB/OL].http://h-s.www.hkma.gov.hk.cslg.naihes.cn/media/eng/doc/key-information/guidelines-and-circular/2019/20191105e1.pdf,2019-11-5.
  [5] Sopnendu Mohanty.大數據算法成金融監管的應用趨勢[EB/OL].http://finance.sina.com.cn.cslg.naihes.cn/money/bank/bank_hydt/2018-07-09/docihezpzwu1090489.shtml,2018-7-9.
  [6]周仲飛,李敬偉.金融科技背景下金融監管范式的轉變[J].法學研究,2018,5.
  [7]黃博文.算法不完備性及其治理-以互聯網金融消費者保護為中心[J].西南金融,2018,8.
  [8]楊東,文誠公.論互聯網背景下金融權的生成[J].中國人民大學學報,2015,4.
  [9]季潔.算法歧視下的金融風險防控[J].上海金融,2018,10.
  [10]蔣輝宇.論智能投顧技術性風險的制度防范[J].暨南學報,2019,9.
  [11] 王煥超.如何讓算法解釋自己為什么“算法歧視”[EB/OL].http://finance.sina.com.cn.cslg.naihes.cn/stock/relnews/us/2019-06-13/docihvhiews8657619.shtml,2019-6-13.
  [12]黃莊莊,張笑寒,譚皓予.智能投顧技術原理與應用分析[J].金融電子化,2018,3.
  [13]崔靖梓.算法歧視挑戰下平等權保護的危機與應對[J].法律科學,2019,3.
  [14][以色列]尤瓦爾·赫拉利.未來簡史[M].林俊宏譯,北京:中信出版集團,2017.
  [15]楊成越,羅先覺.算法歧視的綜合治理初探[J].科學與社會,2018,4.
  [16]徐琳.人工智能推算技術中的平等權問題之探討[J].法學評論,2019,3.
  [17][美]凱斯·R.桑斯坦.信息烏托邦:眾人如何生產知識[M].畢競悅譯,北京:法律出版社,2008.
  [18]張凌寒.風險防范下算法的監管路徑研究[J].交大法學,2018,4.
  [19] 你關心的,才是頭條[EB/OL].http://baijiahao.baidu.com.cslg.naihes.cn/s?id=1588032366644652967&wfr=spider&for=pc,2017-12-28.
  [20] Securities and Exchange Commission,Securities and Exchange Commission v.Craig S.Lax,Civil Action NO.2:15-cv-01079-WHW-CLW(D.N.J.)[EB/OL].http://h-s.www.sec.gov.cslg.naihes.cn/litigation/litreleases/2015/lr23194.htm,2015-2-10.
  [21]趙勝民等.算法交易與套利交易[M].福建:廈門大學出版社,2010.
  [22]鄭毓棟.資管新規下智能投顧的發展趨勢與國際經驗[J].清華金融評論,2018,4.
  [23] 周炎炎.資管新規解讀(2)智能投顧首度納入監管,模型主要參數等要報備[EB/OL].http://h-s.www.thepaper.cn.cslg.naihes.cn/news Detail_forward_1868922,2017-11-17.
  [24] 徐忠.人民銀行研究局局長徐忠:大科技公司涉足金融的挑戰[EB/OL].http://h-s.www.iyiou.com.cslg.naihes.cn/p/86271.html,2018-11-26.
  [25] 巴曙松,樊綱.經濟二次探底可能性不大[EB/OL].http://finance.sina.com.cn.cslg.naihes.cn/money/bank/renwu/20090923/12566784187.shtml,2009-9-23.
  [26] Douglas W.Arner,Janos N.Barberis,Ross P.Buckley.Fintech,Regtech,and the Reconceptualization of Financial Regulation[J].Northwestern Journal of International Law&Business,2017,NO.3.
  [27]豐霏.法律制度的激勵功能研究[M].北京:法律出版社,2015.
  [28]沈偉,李術平.邁向統一監管的資管新規:邏輯、工具和邊界[J].財經法學,2019,5.
  [29] Douglas W.Arner,Janos N.Barberis,Ross P.Buckley.The Evolution of Fintech:A New Post-Crisis Paradigm[J].Georgetown Journal of International Law,2016,NO.4.
  [30]黃震.不完備法律與金融科技風險監管[J].清華金融評論,2019,5.
  [31] 應飛虎,涂永前.公共規制中的信息工具[J].中國社會科學,2010,4.
  [32][美]邁克爾·德賓.打開高頻交易的黑箱[M].談效俊,趙鯤,朱星星譯.北京:機械工業出版社,2013.
  [33] 習近平:設立國務院金融穩定發展委員會,金融監管要問責[EB/OL].http://www.01caijing.com.cslg.naihes.cn/article/16457.htm,2017-7-15.
  [34]唐波,李秦.系統性金融風險監管主體制度改革的國際實踐與借鑒[J].湖南社會科學,2019,6.
  [35]馬長山.智能互聯網時代的法律變革[J].法學研究,2018,4.
  [36]馬長山.智慧社會背景下的“第四代人權”及其保障[J].中國法學,2019,5.
  [37]袁康.社會監管理念下金融科技算法黑箱的制度因應[J].華中科技大學學報(社會科學版),2020,1.
  [38][英]科林·斯科特.規制、治理與法律:前沿問題研究[M].安永康譯.北京:清華大學出版社,2018.
  [39][英]詹姆斯·柯蘭,娜塔莉·芬頓等.互聯網的誤讀[M].何道寬譯.北京:中國人民大學出版社,2014.
  [40] Chris Brummer,Yesha Yadav.Fintech and The Innovation Trilemma[J].The Georgetown Law Journal,2019,NO.2.
  [41]邢會強.人工智能時代的金融監管變革[J].探索與爭鳴,2018,10.
  [42][美]科菲.看門人機制:市場中介與公司治理[M].黃輝,王長河譯.北京:北京大學出版社,2011.
  [43] Dirk A.Zetzsche,Ross P.Buckley,Douglas W.Arner,Janos N.Barberis.From Fintech to Techfin:The Regulatory Challenges of DataDriven Finance[J].New York University Journal of Law and Business,2018,NO.2.
  [44] Monetary Authority of Singapore.Sandbox Express Guidelines[EB/OL].http://h-s.www.mas.gov.sg.cslg.naihes.cn/-/media/MAS/Smart-Financial-Centre/Sandbox-Express/Sandbox-Express-Guidelines-7-Aug.pdf?la=en&hash=34A6F1C3CCB27E2BB900D81F87A3A7FF44220D38,2019-8-7.
  [45]王懷勇,鄧若翰.互聯網金融消費者教育制度研究[J].南方金融,2017,11.
  [46] 楊東.監管科技:金融科技的監管挑戰與維度建構[J].中國社會科學,2018,5.
  [47]張家林.監管科技(Regtech)發展及應用研究-以智能投顧監管為例[J].金融監管研究,2018,6.
  [48] Financial Conduct Authority.Digital Regulatory Reporting[EB/OL].http://h-s.www.fca.org.uk.cslg.naihes.cn/digital-regulatory-reporting,2020-10-14.
  [49]姜野.算法的規訓與規訓的算法:人工智能時代算法的法律規制[J].河北法學,2018,12.
  [50] William Magnuson.Regulating Fintech[J].Vanderbilt Law Review,2018,NO.4.
  [51]李敏.金融科技的系統性風險:監管挑戰及應對[J].證券市場導報,2019,2.

  注釋

  1例如,在此次事件中,寶潔公司市價總值損失近400多億美元,大量持有其股票的投資者們“腦子一片空白、束手無策”。參見[日]櫻井豐.被人工智能操控的金融業[M].林華,沈美華譯,北京:中信出版集團,2018:21.
  2對于“閃電崩盤”的確切成因,到目前仍眾說紛紜,但絕大部分認為主要源于算法交易的失控。參見[日]櫻井豐.被人工智能操控的金融業[M].林華,沈美華譯,北京:中信出版集團,2018:23;參見[美]克里斯托弗·斯坦納.算法帝國[M].李筱瑩譯,北京:人民郵電出版社,2014:5;參見楊麗明.閃電崩盤十分鐘華爾街蒸發萬億美元[N].中國青年報,2010-5-10.

作者單位:西南政法大學經濟法學院
原文出處:王懷勇.金融科技的算法風險及其法律規制[J].政法論叢,2021(01):105-116.
相關標簽:
  • 報警平臺
  • 網絡監察
  • 備案信息
  • 舉報中心
  • 傳播文明
  • 誠信網站
北京麻将游戏 辽宁35选7历史中奖号码 分分彩平台开奖不一样 宁夏11选5开奖结果12567 保本理财产品排行 贵州麻将掷骰子 甘肃快三和值推荐表 北京快中彩中奖规则 山东群英会走势图今14 重庆快乐十分技巧看图 广东麻将旧版本 电子游戏平台 21点百家乐怎么玩 今天台湾码报资料 二八杠 米兜彩票官方网站-点击进入 白最准一尾中特平