金融科技算法风险规制的问题及路径优化

发布时间:2021-02-08 20:07:11

  摘    要:随着算法在金融领域应用的深入,算法固有的缺陷和特性也逐渐与金融本身的风险和逻辑发生耦合,形成了算法歧视、算法绑架、算法趋同等新型金融风险。然而,现有的金融科技算法规制框架存在主体、对象和工具层面的诸多问题,导致金融科技算法风险规制的低效和失灵,因而需要进行规制路径的优化和调适。从主体层面出发,应构建以金稳会为基础的规制协调机制和监管者、行业协会、企业分工合作的多元规制格局;从对象层面着手,应在将所有算法应用业态纳入统一规制框架的基础上,确立以"数据规模"为标准的规制门槛;从工具层面调整,应构建以"快捷沙盒"为制度载体的算法测试制度和可选择的算法披露机制,并积极探索自动化监管模式和代码规制的落地和应用。

  关键词:金融科技; 算法风险; 算法规制;

  Abstract:With the sustained and in-depth application of algorithm in the financial industry,the inherent defects and characteristics of algorithm are gradually coupling with the risks and logic of finance itself,and consequently forming new types of risks such as algorithm discrimination, algorithm abduction, algorithm convergence and so on. However,the existing regulatory framework and legislation on algorithm of fintech have many problems at the level of subject,object and tool,which lead to the inefficiency and failure of regulating algorithm risk of fintech. Therefore,it is necessary to restructure and adjust the regulatory approach and model. At the subject level,it is imperative to construct a regulatory coordination mechanism based on the Council for Financial Stability and Development of the State Council,and a diversified regulatory framework with cooperation among supervisors,industry associations and enterprises. At the object level,a regulatory threshold based on "data scale"should be established on the basis of integrating all algorithmic application formats into a unified regulatory framework. In terms of tools,it is necessary to establish an algorithm test system based on "sandbox express"and an optional algorithm disclosure mechanism, and actively explore the implementation and application of automatic supervision and regulation by code when regulating the algorithm risk of fintech.

  Keyword:fintech; algorithm risk; algorithm regulation;

  算法作为智能技术的驱动核心,正逐渐从"数据处理工具"向"自主决策主体"转变,并呈现出"算法接管一切"的未来趋势。随着算法在金融领域应用的深入,算法交易、智能投顾、智能风控、自动合规等以算法为核心驱动的金融科技产品不断涌现,金融业态由"人力金融"走向"科技金融",金融市场从"华尔街"走向"硅谷","算法金融"的创新逻辑刷新着金融界的思维、眼界与想象。然而,算法与金融的耦合带来的不仅仅是绚烂的景象,也带来了难以预知的风险、问题与危机。2010年5月6日,美国股票市场突然暴跌,道琼斯平均指数10分钟内下跌近千点,创1987年股灾以来最大跌幅,并在之后20分钟内急速回升至暴跌前水平,引起了股票市场的巨大恐慌。1在这个事件中,算法交易扮演着核心主导者的角色。2因此,随着算法融入金融进程的加速,部分监管者已敏锐察觉到这一新兴风险的苗头,并积极开展监管研究,以期回应实践所需。

  2018年3月,欧洲监管局联合委员会(Joint Committee of The European Supervisory Authorities,JCESA)发布《关于大数据的最终报告》,围绕"稳健的大数据处理与算法"、"金融消费者保护"和"大数据披露"三个范畴提出了一份"行为与组织指引清单",以供金融机构遵循。[1]新加坡金融管理局(MAS)于2018年发布《新加坡金融业使用人工智能和数据分析时的公平、道德、问责和透明度原则》(简称《FEAT原则》),针对金融业算法模型应用中出现的算法歧视、绑架等问题,提出了"公平"、"道德"、"问责"、"透明"四项原则(FEAT原则)。[2]我国香港金融管理局(HKMA)于2019年也先后发布《人工智能的高层次原则》[3]和《关于被授权机构使用大数据和人工智能的消费者保护指导原则》[4](简称《人工智能消费者保护原则》),就香港银行业应用人工智能时存在的算法黑箱、歧视等问题,提出了包括算法可解释性、算法测试、算法公平、算法伦理等方面的要求。

  与监管层的摸索同步,理论界也开始对算法风险及其规制问题展开反思和探讨。新加坡MAS首席金融科技官Mohanty发言称,监管者应"想清楚,如何对算法进行监管,因为算法是自运行、自我学习的,自我学习之后有可能会失控".[5]我国学者也认为"算法趋同会产生顺周期性,算法歧视会损害金融消费者权益,对算法的监管因此要提到日程上来".[6]P18此外,还有一些学者对金融行业中出现的算法不完备等问题的法律规制路径进行了探讨。[7]总体来说,现有研究不够充分,学术讨论氛围亦未形成。因此,本文尝试以风险规制为切入点,通过对金融科技的算法风险进行剖析,探寻我国金融科技算法风险的规制路径和方案。

  一、金融科技算法风险的现实隐忧

  以1987年算法交易技术为起点,算法逐渐替代人类成为金融市场的"主体"并独立担任金融合约的"缔约者"乃至金融资源的"调配者",算法权力也逐渐开始替换乃至覆盖人的金融权利。在这一"主体化进程"中,算法的内生缺陷不断暴露,并与金融结合形成诸多新风险形式,反噬并危及金融体系的和谐与稳定。

  (一)算法歧视:金融公平权的"名存实亡"

  信息技术的内嵌实现了金融业交易渠道的拓宽、交易流程的再造和交易成本的缩减。"水泥金融"向"指尖金融"的转型使得广大小微投融资者可以不受专业或资金门槛的限制,也无需理解货币基金的复杂概念和原理,就能享受方便、快捷和实用的金融服务。[8]P103同时,创新金融业态的出现意味着垄断的破除,有助于形成更加公平的市场价格。在信息技术的推动下,金融服务的可获得性、金融价格的公平性的共同实现,为金融公平权的理论证成和现实检验提供了坚实的要素基础。然而,算法固有的歧视性数据取舍、偏颇性数据捕捉的风险对金融公平权的理性维护提出了崭新又严峻的挑战。[9]P60以智能投顾为例,智能投顾的运行逻辑包括客户画像生成、投资组合建议形成以及交易指令生成和执行三个阶段,[10]P51其中,前两个阶段最容易形成算法偏见。客户画像主要依靠算法对投资者的行为数据、社交情况、交易记录、财务状况等数据进行汇集、"清洗(筛选)"和建模分析,以描绘出客户的财产状况、投资经验、风险吸收能力及投资偏好等"数字形象",作为服务定价和产品抉择的基础。由于智能投顾数据收集渠道的有限性,非完全性的数据可能描绘出片面性的客户人格特征;或者因为对客户数据的"清洗"未能有效筛除"蕴含偏见的数据",导致客户画像的结果可能成为"社会结构性歧视的延伸";[11]或者基于智能投顾在挖掘客户数据时,"大量的数据可能会导致不同事物之间产生新的相关性,但相关性并不意味着因果性,并可能导致算法基于这些数据的错误决策",[1]P14产生"统计性歧视".而投资组合建议是在客户画像给定的前提下,搜选、梳理和研判市场产品的投资价值、收益逻辑、风险结构等多维数据,并通过算法内设的投资组合模型,依照不同资产之间的相关性以及资产风险因子来构建"最优有效前沿投资组合",实现对市场的高精度判断。[12]P85但算法内嵌的投资组合模型都是由算法设计者编入的,无法避免算法设计者的主观偏见和"效率偏见":于前者,算法设计者可能将自己的主观偏见嵌入算法系统,导致算法在研发阶段存在主观上的"价值负载",造成算法存在偏重本公司利益或某些客户的利益而忽视其他客户利益的固有偏见或缺陷";[1]P30于后者,算法可能基于市场主体的"效率逻辑",以经济利益为唯一因素来作出决策,忽略诸如平等、自由、安全、人权等其他价值指标的重要意义。例如,算法根据客户的价格敏感度,向其推送不同价位的投资组合产品,造成算法"展现给穷人的世界就是穷人的世界,展现给富人的世界就是富人的世界".[13]P36

  正是基于"片面数据性歧视"、"延伸性的社会结构性歧视"、"统计性歧视"、"主观性歧视"和"效率性歧视",算法不仅没有真正解决金融资源配置的不平等问题,反而在科技层面固化了金融歧视和金融排斥。同时,算法本身披着客观理性和价值中立的"外衣",标榜以电子算法解码"生物算法"的科学口号,[14]P335容易让金融公平权成为一种虚妄的自我欺骗。这点在美国征信公司FICO信用评分算法上体现得淋漓尽致。FICO所推出的信用评分算法一度被认为解决了传统贷款市场只服务于有抵押借款人或高资产借款人的贷款歧视问题。然而长期以来,美国征信市场却频繁出现信用评分错误率较高,信用评分决定因素和信用降级理由不明确,征信机构不对低信用评分进行解释等问题,甚至有企业利用低评分信用报告对女性、少数族裔和社会心理残疾者给予歧视性待遇。[15]P8

  (二)算法绑架:金融选择权的"隐性控制"

  金融消费者在享用智能算法匹配和推送所带来好处的同时,也逐渐形成了对其模式和结果的过度依赖,导致算法决策逐渐"绑架"金融消费者的意志思维,[16]P153对消费者的金融选择权形成"隐性控制".具体来说,算法金融的绑架风险表现如下:

  一是通过信息茧房"绑架"金融消费者。"信息茧房"概念由凯斯·桑斯坦提出,以表示信息大爆炸时代所带来的信息"片面性接收"问题,即"我们只听我们选择的东西和愉悦我们的东西".[17]P8信息的"偏好导向型展示"虽有利于算法运营者的商业盈利,却容易制造信息的"过滤泡沫",导致用户接受的观点愈发极端。[18]P50长此以往,消费者的消费理念与消费意识将完全陷入算法所预设和编织的"信息茧房",使消费者的消费选择与"完全信息环境"下的选择产生偏离。以"你关心的、才是头条"为口号的今日头条即是典型代表,其凭借个性化信息推荐成为国内移动互联网领域成长最快的产品之一。[19]然而,今日头条等内容推荐APP若只是推荐一般性社会新闻或生活类文章,那仅仅只是影响用户的文化内容接收,若推荐的新闻或文章涉及金融投资教育或金融价值偏好,那会间接影响用户的理财投资计划和投资选择能力,进而左右用户对自身重要资产的配置实践。

  二是通过优先推荐"绑架"金融消费者。在互联网长尾市场中,数量庞大、种类繁多的金融产品和服务选择早已超出了金融消费者的认知和处理极限,消费者难以在合理时间内穷尽所有的金融产品选项并研究出最适合自己的产品选择,这就为算法影响金融消费者的选择提供了契机。实践中,诸如P2P、互联网理财等平台通常根据消费者的投资偏好,以栏目条的形式自上而下罗列可选产品,并通过页面划分控制每页显示的栏目数量。由于时间成本、心理前见等因素,金融消费者在浏览金融产品时一般只关注前几页甚至第一页的信息。同时,某些算法因受到设计者的预置性规则或后天学习的偏差性认知影响,可能会安排某些特定的产品或项目以更高频率的出现。这种行为隐秘地在金融消费者的自由选择中添加了算法设计者"主观偏好"或算法"塑造偏差"的影响,损害了金融消费者自主选择金融产品的权利。

  三是通过诱导交易"绑架"金融消费者。算法通过向金融消费者推送"心动产品"、"最优服务"或"实惠价格",煽动、诱导甚或欺骗金融消费者做出盲目、轻率和不理智的金融消费者行为。美国证券交易委员会(SEC)在2015年查处并起诉了一起相关案例。该案中,被查处的金融机构及其负责人"授权使用了一种专有交易算法,该算法在一个原本透明的证券市场上向客户隐藏了证券的真正价格",导致"客户支付的费用远高于所披露的证券买卖佣金".[20]因此,"诱导交易"利用了金融消费者冲动、偏执、盲从等人性弱点,也是一种对金融选择权的"隐性控制".

  (三)算法趋同:金融波动性的"双向强化"

  所谓"算法趋同",就是同一应用领域不同算法系统之间相互渗透、交叉演化,朝着实现相似功能或输出相似结果的方向迈进的趋势。在金融领域,算法趋同风险可能加剧金融市场的双向波动,危及金融市场的整体稳定和良性运转。具体来说:

  一是算法交易的趋同化投资策略可能导致证券市场价格波动的指数级放大。算法投资策略的基础性种类并不复杂,不同证券公司研发的算法基础投资策略可能存在交叉甚至重合,抑或证券公司通过直接购买算法交易产品的形式进行运营,造成因算法交易系统的类似或相同而导致投资策略的趋同化。以算法投资中最为基础的"动量交易"和"均值反转"两大策略为例,动量交易策略的运用建立在"利好(利空)消息扩散"、"大额订单分割"和"羊群效应酝酿"等前提之下,而均值交易策略的运用建立在"无利好(利空)消息"且股票价格脱离公司基本面价值的基础之上,[21]P140需要根据算法交易对市场基本面和运行状况的判断作出。一旦算法对于基本面和市场状况的理解、判断及对应的策略选择相同或相似,那么多家公司的算法可能同时作出"买入"或"卖出"某支或某些证券的决策,导致股价大幅波动。这种行为所产生的行情"上涨"或"下跌",会刺激相关算法交易系统作出进一步"买入"或"卖出"决定,最终这些同样"理性客观"且"追求利润最大化"的算法将通过不断相互"刺激"造成资本市场剧烈波动,并可能引发个人投资者"非理性恐慌"和市场的"羊群效应".

  二是智能投顾的趋同化服务可能加剧证券市场的顺周期性。智能投顾的趋同化服务源自以下原因:首先,智能投顾研发商所采用的数据挖掘逻辑和投资组合理论趋同导致智能投顾底层架构的趋同化;其次,智能投顾运营商购买同一家金融科技公司的智能投顾产品导致智能投顾算法模型的趋同化;再次,投资者选择同一家智能投顾产品导致智能投顾服务内容的趋同化。对于第一种原因的趋同化,智能投顾服务可能在宏观市场繁荣时一致形成过于乐观的投资预期,并劝诱投资者(或直接代替投资者)采取较为激进的风险投资行动,从而促使证券市场非理性繁荣,继而又对智能投顾形成乐观反馈,不断提升乐观预期并推高市场泡沫;而在宏观市场低迷期,又因一致采取过于稳妥的保守投资策略,使得资本市场非理性萎缩并形成恶性循环。对于第二、三种原因的趋同化,智能投顾可能同时、一致地对某支或某组证券产生相同或相似的投资决策,从而导致市场资金过度集中,对市场造成巨大冲击并造成市场失衡,[22]P52而资金的过度集中又会导致该支或该组证券价格的非理性拔高,对智能投顾形成"利好刺激",导致更多的统买统卖、重涨重跌,最终引发系统性风险".[23]

  三是信贷评估的趋同化模型可能增强信贷市场的顺周期性。大数据算法在信用评估领域的应用有助于促进信用贷款从"关系型贷款"向"交易型贷款"转化,但算法模型的相似性会带来同质化竞争,产生顺周期的问题,"形成市场的大起大落风险".[24]与智能投顾类似,信贷评估标准的趋同有两种原因:一种是由不同的信贷评估程序所采用的数据采集标准、数据挖掘标准、风险评估模型的趋同所导致,另一种是由不同信贷机构购买相同或类似的信贷评估服务所导致,如FICO信用评分算法。两种趋同趋势的出现促使商业银行之间的信贷选择和决策愈发具有一致性,"使得不少的银行几乎同步迅速扩张信贷,又几乎同步收缩信贷,必然导致信贷的大幅波动,从而影响到市场的波动".[25]

  二、金融科技算法风险规制的问题检视

  随着金融科技逐渐从货币数字化向数据货币化转变,金融科技风险规制的框架也应重新考量,以涵盖以前不必要的内涵。[26]P403然而,我国金融科技领域的算法风险规制存在主体、对象、工具等层面的问题,导致了金融科技算法风险的规制诉求与制度供给之间存在较大落差。

  (一)主体问题:分业规制与单中心思维

  一是风险规制目标不一致导致的市场认同问题。我国的金融分业规制体制使得"一行两会"间难免存在风险规制理念、风险关联知识、风险信息解读等层面的不足,导致算法风险规制的目标存在偏差。例如,作为主导宏观审慎监管的央行,更多将目标聚焦于算法趋同所导致的风险爆发和传导问题,而作为主导信贷风险监管的银保监会,则将目标更多放在算法歧视导致的信贷公平风险问题。目标预设的不同将通过规制规则呈现的风险态度、规制重点和监管倾向渗透入受规制主体的风险意识、规制认识和合规安排,并最终产生不同业态金融机构针对同种或类似的算法应用及风险承担大相径庭的合规负担的情况,进而可能诱发监管风险:分业监管部门之间风险态度和规制话语的撕裂使得受规制主体产生一种"不公平感",引发认知失调,而"人们为平衡认知便采取行动来拒绝、反抗不公平的法律",[27]P89从而陷入风险监管的"认同危机".

  二是风险规制标准差别化导致的监管套利和监管竞次问题。不同标准具有各自的优劣势,需要规制者立足具体的风险规制场景相机抉择。在分业监管体制下,不同金融规制部门可能会选择不同的标准设置路径和构建模式,导致各业态间算法风险规制标准的差异,进而产生监管套利的空间。监管套利可能引发金融科技产品或服务的多层嵌套和技术遮盖,造成风险链条和风险样态更为混杂,增强规制难度。同时,标准主体的多元化也可能产生监管竞次现象,使得监管机构陷入"放松监管的竞争"之中,[28]P86致使金融消费者保护和金融稳定沦为风险监管中"被牺牲的价值".

  三是风险规制数据孤岛化导致的视野遮蔽问题。金融科技促成了新的初创金融科技公司与老牌科技公司、电子商务公司等的同时"入场",并与传统的金融公司形成直接或错位竞争。[29]P1276这对风险规制主体的信息可得、整合和处理能力提出了要求。然而,当前各监管机构之间缺乏数据共享的平台。例如,在征信领域,央行一直没有把部委数据有效打通、共享,部委数据形成了数据孤岛。[30]P43数据隔离使得各风险规制主体的视野受限,缺乏对整体性风险的发掘能力,特别是在算法趋同风险领域。因业态隔离,证监会仅能对程序化交易及券商类智能投顾的风险数据予以监控,使得无论是证监会、银保监会,还是央行都难以对算法驱动的投资交易全貌进行监督,导致金融规制主体的"有限视野"与算法趋同的"整体性风险"间形成难以调和的冲突。

  与金融科技算法风险分业规制的"略显多余"相比,金融科技算法风险的"政府单中心规制"则显得有些"势单力薄",难以对接内嵌算法的智能化金融的风险规制和法秩序诉求。首先是行业自律规制主体的缺位。中国互联网金融协会作为互联网金融风险的行业自律主体,根据《中国互联网金融协会会员自律公约》第二条,主要负责互联网支付、P2P网贷、股权众筹等互联网金融业务的风险自律规制。虽其可能对P2P网贷、股权众筹等业务中的算法风险予以行业规制,但难以涵摄到智能投顾、算法交易等业态中的算法风险。中国证券业协会在《证券投资咨询机构执业规范(试行)》第十四条、第二十四条仅明确了"算法模型形成的投资分析意见属于投资建议的合理依据之一"和"证券投资咨询机构从业人员不得在执业活动中以算法变相开展相关业务",但并未涉及算法风险的规制。此外,虽然近些年中国消费者协会开展了一些金融消费者活动,但总体呈现"运动式"特征,常态机制尚未形成,也不存在针对金融科技算法风险的消费者保护行动。其次是企业自我规制的缺失。从市场实践来看,"资本驱动"的企业愿意开展算法风险自我规制更多是源于市场内生的声誉约束机制,即企业通过构建严格、公开的风险规制框架,强化市场对其产品或服务的信心进而争取交易机会。然而,在算法金融市场,此种声誉机制面临"约束失灵"的窘境,原因在于:当前算法在金融领域的应用尚属初期,许多业务及风险防范模式尚未成熟,难以形成良好的、社会普遍认同的风险自我规制原则和标准。例如,金融消费者何种情形属于受到算法的歧视,算法的何种行为构成算法绑架,标准为何,当前并不确定。同时,当前金融科技企业体量庞大、种类繁杂,声誉信息容易掩埋在庞大的信息流之中,难以传递到消费端。特别是许多金融科技初创企业客户量较少,即使存在风险侵权事件,也容易因声音微小而难以广泛传播。

  (二)对象问题:对象片面与规制负担

  从实然层面来看,《关于规范金融机构资产管理业务的指导意见》(以下简称"资管新规")、《证券期货市场程序化交易管理办法(征求意见稿)》(以下简称"程序化交易办法")已开始尝试对智能投顾、算法交易等业务中的算法风险问题予以规范,在我国具有一定的现实意义。然而,从风险规制对象的角度看,现有制度文本存在如下问题:一是过窄的规制覆盖面使得大量算法风险问题游离于现有金融规制体系之外。纵观当前立法,仅有《资管新规》和《程序化交易办法》两项规章,前者针对智能投顾中的算法风险提出了应对要求,后者针对算法交易中的风险进行了规范但尚未生效。根据规制系统结构理论,规制规则的制定是规制对象监督和规制规则执行的结构性前提,故规制规则的缺乏使得大量的金融科技算法风险问题游离于现有金融规制体系之外。二是分业规制的对象方案降低了规制执行的客观效能。例如,针对算法趋同导致的市场波动风险,《资管新规》设立了算法差异化、风险预案和人为干预等制度,以避免智能投顾"算法同质化加剧投资行为的顺周期性"并引发市场波动风险,而《程序化交易办法》构建了申报核查管理、指令审核、交易异常处置和净买入额度及开仓量控制等制度,以避免"程序化交易技术风险导致市场大幅波动".这样的"分业务"风险规制模式,既可能引发业务嵌套和监管套利,增加金融业务的结构性复杂度和算法风险规制的执行难度,也容易导致风险规制的"各自为政",产生风险防范的漏洞。例如,智能投顾算法策略的差异化和算法交易投资决策的差异化得以被保障,但某些智能投顾的算法策略与某些算法交易的决策逻辑依然存在相似,使得资本市场中的趋同化投资行为依然存在。

  从应然层面来看,将金融科技算法风险问题纳入统一规制框架是破解上述困境的有效路径,然而,如此一来又可能导致风险规制成本过高,存在"规制过载"之嫌。金融科技算法本质上是一种数据处理和分析机制,算法的金融内嵌促使金融科技的业务逻辑从KYC (Know Your Customers)逐渐向KYD (Know Your Data)转变,"数据"成为了金融和监管的"共同分母".[26]P412这就对规制机构的数据抓取、整合和解读研判能力提出了更高要求。当前金融监管机构的监管科技建设尚处于酝酿阶段,"一行两会"中仅证监会正式发布了监管科技建设框架,并处于第一阶段的建设中,因此,要求监管机构对所有金融科技业态的算法风险予以规制和防范无异强人所难。此外,初创型算法金融企业是算法类金融创新的主力军。然而,这些企业由于初期规模较小,资本、人力和结构尚不成熟,且大多以创新业务模式、挖掘市场空白、抢占市场"蓝海"作为获取竞争利益、赢得发展机会的主要抓手,因此,过多的风险合规投入可能使这些企业难以将资源集中于"创新发掘"和"市场开拓",形成金融市场的"创新掣肘"难题。

  (三)工具问题:信息规制低效与命令控制型规制失灵

  当前,《资管新规》和《程序化交易办法》主要采用了信息规制工具与命令控制型规制工具协同配合的规制组合,前者包括算法备案、算法披露、申报核查管理、交易异常公告等制度,后者包括算法差异化、人工干预、指令审核以及净买入额度和开仓量控制等。然而,两类工具在规制算法风险时不可避免地存在"效力缺陷"与"失灵风险".

  一是信息规制工具低效的问题。当前的信息规制工具主要聚焦于自下而上的信息报送和平行主体的信息披露,前者旨在解决风险信息不透明的问题,为监管层的风险防范和处置提供信息基础,后者聚焦解决市场主体间的风险信息不对称问题,加强消费者的自我保护和"私权规制"能力。但两者均存在一定不足。首先,算法的高度专业化使得信息供给的实效有限。例如,算法披露要求智能投顾运营商向投资者"提示人工智能算法的固有缺陷和使用风险".但大部分算法风险不是算法本身的设计缺陷或部署失当导致,而是由所摄取数据的结构性偏差、数据本身的"关联性"判断逻辑、算法"以效率为本"的价值取向所造成。因此,仅"提示人工智能算法的固有缺陷和使用风险"难以防范消费者面临的算法风险,而披露更详细的编程数据和代码逻辑又难以被消费者所消化和掌握,因而其效果实为有限。其次,信息供给深度受到合规成本和商业秘密的掣肘。以算法备案为例,其要求智能投顾运营商"向金融监管部门报备人工智能模型的主要参数以及资产配置的主要逻辑".但算法备案应到哪种程度、算法更新应否备案尚未明确。若报备内容过细,可能存在侵犯算法运营者商业秘密之嫌,且算法运营商基于维护自身商业秘密,可能会采取"避重就轻"的方式掩藏关键信息,以监管部门的现有技术能力,能否理清"代码逻辑"并发掘"信息遮蔽"仍然存疑。若报备过粗,算法备案可能面临形式化窘境。若算法更新需要备案,那何种程度的算法更新需要备案也面临合规成本或"算法失控"的两难抉择。最后,分散化的信息供给难以满足算法风险全系统监控的需要。例如,申报核查管理制度要求程序化交易主体将"身份信息、策略类型、程序化交易系统技术配置参数、服务器所在地址以及联络人等信息及变动情况"向相关证券、期货公司以及证券交易所申报,经核查后方可进行交易。这就使得算法交易的相关信息分布在各证券期货公司和沪深交易所内部形成信息壁垒,导致交易所和监管部门难以警觉宏观市场中算法交易策略和逻辑的趋同趋势。同时,信息申报隔离亦会导致智能投顾和算法交易之间投资策略的趋同态势易被监管部门忽视,形成风险监测的空白和漏洞。

  二是命令控制型规制失灵的问题。命令控制型规制工具符合我国长期以来的"科层式执法"习惯,因此受到政府的偏爱。然而,直接性的风险行为干预存在诸多问题,它受制于政府的风险规制能力、技术支持,以及对受规制风险的内在机理、规制的作用逻辑和实施效应的深度把握,盲目使用不仅可能导致风险规制目标难以实现,也容易诱发严重的非预期后果或衍生风险。[31]P125在算法风险规制中,命令控制型工具选择的盲目和不成熟产生了诸多问题,具体说:首先,命令控制型工具的可操作性较差。例如,算法差异化制度要求算法运营商在自行或委托他人研发智能投顾算法时,应依照不同产品投资策略设计对应的算法,以防范算法同质化诱发趋同风险。然而,算法设计者与运营商仅能保证自己研发的算法具有差异性和多样性,若想知晓其他金融机构的算法构造逻辑和内嵌投资策略并保证自有算法程序的异质性,不仅与保护商业秘密的立法取向相悖,也缺乏可实现的路径。同时,在某一或某些投资策略和算法逻辑被证明具有"获益优势"甚至"最佳效益"的情况下,要求算法设计者和运营者放弃这些投资策略或算法逻辑,转而选择次优选项,也有悖商业效率原则。其次,命令控制型工具有阻碍市场创新之嫌。例如,净买入额度控制制度要求证券公司、基金管理公司"自行确定交易单元控制额度"并向交易所"进行额度申报以及申请额度调整",目的在于防控市场波动风险。然而,算法交易开发成本极为高昂,以至于"构建和维护这些错综复杂的巨无霸系统花费不菲,即使是巴菲特看了都得皱一下眉头".[32]设置额度上限可能使得许多算法交易开发者的前期研发投入难以获得应有回报,打击其创新优化算法的积极性,也容易导致采取某些投资策略的算法交易难以投入市场应用。最后,命令控制型工具的实际效果存疑。譬如人工干预制度要求算法运营商对算法因"模型缺陷或者系统异常"所导致的算法趋同和市场波动风险采取人工干预措施。然而,人工干预制度缺少责任承担和监督主体的规定,存在一定模糊性。同时,算法趋同风险的爆发、蔓延和衍变速度极快,常在几分钟之内便形成市场大幅动荡乃至系统性风险,要求算法运营商"及时采取人工干预措施,强制调整或者终止人工智能业务",恐怕对于预防和化解风险收效甚微。

  三、金融科技算法风险规制的路径优化

  要实现金融科技算法风险的有效规制,监管部门应调整观念,将规制目光穿透到企业表层下的"算法主体",并将规制视野更多从金融机构的行为规制转向算法规制,进而在"规制去蔽"的基础上,通过主体调适、对象调适和工具调适,实现金融科技算法风险的路径再造和效能最优。

  (一)主体调适:规制协调与规制多元化

  1.横向层面:以金稳会为基础实现风险规制的统合与协调

  受制于我国金融规制竞相割据的制度传统,金融混业规制虽呼声渐高,但却非一蹴而就。直接将"一行两会"合并为统一机构的方案不仅有"跨者不行"之虑,"颠覆式"机构变革也容易引发市场恐慌和秩序失调。更可行的方案是构建金融风险规制协调机制,实现算法风险规制目标、规制标准等事项的统合规范与协同再造。2017年11月成立的国务院金融稳定发展委员会(简称"金稳会")即为规制协调提供了体制基础,其旨在"针对突出问题加强协调,强化综合监管",以"补齐监管短板".[33]因此,应以金稳会为基点,分层次推进金融科技算法风险规制协调机制的建设。

  首先,赋予金稳会相应法定地位和职权。当前,金稳会的主要定位是统筹协调金融稳定和改革发展重大问题,其职权较为有限。再加上地位、职权缺乏法律明确规定,其在履行职责时容易面临缺乏法律依据或行政强制力的窘境。[6]P9-10因此,应通过立法确立金稳会跨市场的金融监管协调主体的地位,[34]P90赋予其稳定、独立的财政预算和人员编制,使其成为一个常设、独立的金融监管主体;同时,赋予其信息统合、监管协调、规章制定、权责配置等职权,并明确金稳会的主要职责为监管协调与规制整合而非风险规制行动的具体执行,以防范权力膨胀带来的风险失控。

  其次,由金稳会统合和引导"一行两会"形成统一的算法风险规制目标。考虑算法金融市场的不同风险,应以数据正义观、代码正义观、算法正义观为基本价值指向,[35]P20以保护"数字人权"为基本起点,以反算法霸权、反数据控制,维护消费者人格尊严和财产利益为根本指导,[36]P20-22将算法风险的规制目标确定为实现算法公平、算法透明、算法稳健和算法合伦理性。其中,算法公平既要确保算法在作出决策时合理地权衡、筛选了适恰的相关因素,又要确保算法输出的结果并未有意或无意对某些金融消费者群体产生偏见;[3]P3算法透明应聚焦"有意义的透明性",[37]P108即通过精巧的透明性规制策略,实现企业的商业秘密保护和算法披露全面性、有效性的动态平衡;算法稳健应关注算法与金融稳定的内在关联,并通过数据评估、算法测试、程序监测和风险预警等协同配合,实现算法自主决策权维护与算法趋同风险防控的理性平衡;算法合伦理性应确保"算法决策行为"遵循基本道德准则和价值体系,实现"算法行为"与"人类行为"的异质共生、平等守则和互动有序。

  再次,由金稳会统合"一行两会"、行业技术协会、企业等主体,在多元对话、互动协商的基础上设计风险规制标准。监管层制定的风险规制标准为"原则性标准",并将精细化操作标准的制定权授予相关行业协会,以推动"国家与民间互动、软法硬法并重、双向多元构建的"算法风险规制体系的塑造。[35]P36例如,算法透明的具体标准应包括程序透明、后果透明及可解释性:程序透明要求算法应向金融消费者清楚说明"哪些类型的数据被用于算法决策运算"以及"该数据类型如何影响算法决策";后果说明要求算法应明确向金融消费者说明"算法决策可能对它们造成的后果";[2]P12可解释性要求算法应向金融消费者作出必要解释以确保消费者对算法决策及其风险的可理解性和认同度。

  2.纵向层面:构建监管部门、行业协会和企业分工合作的多元化风险规制格局

  多元化风险规制主体体系不仅能充分激活科层规制以外的其他风险规制机制,也能通过"规制对话"和"规制合作"弥补监管主体在专业知识和风险规制信息层面的不足。[38]P208多元协同风险规制格局的实现,不仅需要行业团体公益取向、自律结构的自我酝酿和企业社会责任、市场声誉机制的自发生成,更需要通过相应的监管政策和措施,积极引导、激活行业协会和企业的主体意识和规制功能,最终形成一套层级化、差异化和精细化的"金字塔式"风险规制结构体系和运作秩序:"法规的/自愿的、正式的/非正式的、国家的/超国家的、等级制的/分散的".[39]P128

  一是引导行业协会发挥算法风险自律规制功能。首先,调整行业协会的结构。中国互联网金融协会可设立算法风险专委会,针对金融科技的算法风险设计自律守则、监督算法风险行为、指导风险自律行动。此外,鉴于算法歧视、算法绑架等侵权行为的隐蔽性和损害的微量性,金融消费者容易因侵权行为的"感知失灵"或维权成本-收益的"比例失衡"而难以或放弃采取维权行动。因此,通过团体力量采取统合性维权成为可行的替代机制。例如,中消协可下设金融科技算法侵权应对小组,明确其负有监督金融科技算法风险、制止算法侵权,救济受损金融消费者的职能。其次,对行业协会进行赋权。监管机构可将部分精细化的算法风险规制规则授权给行业协会制定,并委托其执行部分具体事宜。具体来说,前者要求监管主体在针对算法风险制定规章和政策时,更多负责目标、原则性标准和包容性规则的制定,而把操作性标准、精细性规则的制定权赋予行业协会,实现"规则制定权"从"行政"到"行业"的再分配。后者要求监管主体在规章和政策中明确将算法风险监督权、纠正权和部分惩罚权授予行业协会,提升行业协会自律规制的权威性和执法效能。同时,明确中消协监督金融科技算法风险及侵权行为,代替消费者向算法运营者起诉,向相关监管部门提出申诉的权责,以团体力量应对算法风险对金融个体权益的侵害。

  二是激活企业的算法风险自我规制功能。首先,监管主体可以制定有关"算法合规控制"和"算法风险治理"的非正式指引(Informal Guidance),以传达它对算法金融企业的期待。同时,该指引亦可表明监管主体重点关注的算法合规领域和未来可能采取监管措施的算法风险行为,使企业认识其可能面临的算法风险治理责任。[40]P283这种非正式指引属于监管层的软法工具,不具有法律约束力,但因承接了监管层的行政权威性而会产生一定的实际指引和规范效果。[38]P69此外,该非正式指引构造起统一、稳定的金融科技企业算法合规准则和风险治理框架,有助于推动算法风险自我规制的社群规范从"隐性"走向"显性",从"杂乱"迈向"系统".当前,域外诸多国家均采取了这一措施,例如JCESA《关于大数据的最终报告》所提出的"行为与组织指引清单",即从算法稳健、金融消费者保护和算法披露三个层面提出了有关金融机构开展算法风险治理行动的建议。[1]P32-33其次,监管主体应鼓励市场创立监管科技公司,由其接受金融科技公司的委托,对金融机构的算法合规情况和风险治理效度进行评估并发布"算法风险治理与合规报告".[41]P23监管科技公司的定位类似于证券市场的"看门人",其以自身的"声誉资本"为担保,对金融科技企业的算法合规情况和风险治理效度进行评估并发布相应的评价报告,[42]P3-4进而缓解"企业黑箱"与"算法黑箱"二元叠加所导致的信息偏在问题和"市场信息流"淹没"企业个体信息"所导致的信息传递失灵。金融消费者通过阅读该评价报告,即可对相关企业的算法风险治理效能有所了解,并通过"给予交易机会"和"同意使用个人信息"的方式对企业予以"声誉性规制",提高企业强化算法风险治理的外在声誉压力和形象塑造动力。

  (二)对象调适:业态统合和规制门槛

  1.构建"一体融合"的金融科技算法规制框架

  改变当前《资管新规》、《程序化交易办法》根据具体算法应用业态分别制定监管规则的"多元立法"现状,推出统一的金融科技算法风险监管规则。例如,新加坡MAS的《FEAT原则指引》提出了一套企业"在提供金融产品和服务的决策中使用人工智能和数据分析时应普遍遵守的原则".[2]P3再如,我国香港地区的《人工智能的高层次原则》亦未区分具体业态,要求所有应用人工智能算法的金融科技企业遵循相应的监管指引和原则。[3]对算法风险予以"一体融合"式的法律规范和政策指导,其现实功效较为明显:一方面,以往的被规制企业因监管规避或监管套利而实施算法业务嵌套和产品伪装,导致算法风险混杂化或风险链条延展化的问题可被解决;另一方面,规制主体因监管竞次而放松规制或怠于规制导致算法风险被有意忽视的问题能被避免,同时,因主体间规制空白或漏洞而引发的部分算法风险潜伏的问题亦能从源头化解。此外,统一规制模式顺应了我国金融科技监管从机构监管向功能监管转变的历史趋势:即更多根据金融科技算法业务的统一功能---算法对数据的自动化收集、整合、解读、预测和决策输出,以及金融科技算法各类型风险的内在一致的机理和效果---数据或算法偏差导致的区别对待、个性化输出引发的算法诱导、同质化算法行为造成的市场大幅震荡等,作出"统一"的立法体例选择和"体系化"的立法结构安排,将风险监管的焦点汇聚于金融科技算法风险内在蕴含的利益冲突和逻辑矛盾以及外在突显的影响方式和损害形式,逐步消解传统的机构监管体制与新形势的风险样态间的张力。

  2.以"数据规模"作为"规制与否"的门槛标准

  横向的"业态统合"须伴随纵向的"规模门槛",以防止过严的规制要求扼制中小企业的生存空间与发展机会。但是,传统的以"资本"为标准的门槛模式并不可取,因为"降崖式递减"的算法运营"边际成本"使得资本已难以反映算法的运营规模和影响范围。例如,某些智能投顾企业可能资本较少,但其智能投顾算法的服务范围和客户数量却相当广泛。若采用"资本"标准,一方面,可能导致资本较高但科技应用较少的偏传统型金融机构受到较严格的风险规制,而资本较少但科技含量高的新型金融机构反而享受规制放松的政策红利,造成风险规制目标错位和风险干预配置不均;另一方面,也可能"激励"大型金融机构通过设立算法运营子公司规避监管负担,诱发监管套利。

  对此,可以"数据规模"作为金融科技算法风险规制的门槛标准,即根据算法处理的消费者数据占相关金融市场消费者总数的一定百分比(例如1%)来确定是否对其予以规制。[43]P441-442将"数据规模"作为门槛标准主要基于两点考虑:第一,算法本质上是数据处理和分析机制。以数据规模为标准更能反映算法的客户总量、服务范围以及算法风险的影响范围,实现算法风险规制的干预强度、规制力度与风险量度、危害广度的适配。第二,算法决策必须建立在丰富数据的基础上。数据规模较小的金融科技算法,其风险隐患相对较低,监管者对其施以"门槛豁免",有助于鼓励其成长,呵护市场的竞争活力和创新动力。

  此外,为解决以"数据规模"作为规制门槛的实际操作问题,可从远期与近期两个角度加以设计。从远期来看,自动化监管模式是一个可行方案,即通过将监管技术系统直连金融科技企业的算法后台,监管技术系统可直接获取、筛选和统计相应算法的数据处理量,并以可视化结构性表格的形式向监管机构报告。从近期来看,可以要求算法金融企业在进入市场前及进入市场后定期向监管机构报告其数据处理规模,[43]P441该报告应至少包括两项内容:(1)本企业算法前三个月的月平均处理数据量;(2)本企业算法为消费者提供服务的地域范围和行业范围。定期报告能为监管者界定"数据规模"提供分析依据,同时,为了保证报告的真实性和准确性,立法应赋予监管部门对算法及其相关记录进行现场检查或技术检查的权力。此外,若相关算法金融企业拒绝履行定期报告、接受检查等义务或存在虚假报告等违法行为,可授权监管部门采取下列两种惩罚措施:一是"规模假定"措施,即直接认定该企业符合规制门槛标准,并要求其满足相关风险合规义务;二是"数据锁定"措施,即禁止该企业通过任何途径采集、获取相关地区和行业的消费者数据。[43]P441

  (三)工具调适:激励性规制与科技治理

  1.激励性规制嵌入信息工具:算法测试与定制化披露

  一是依托"快捷沙盒"构建算法测试制度。针对强制性算法备案与算法审查的缺陷,可行的解决方案是监管主体向规制受体抛出放松监管的"橄榄枝"(即支付信息补偿),换取规制受体对算法风险信息和相关知识的主动供给,而"快捷沙盒"为这种"激励契约"提供了工具基础。"快捷沙盒"根据新加坡MAS于2019年发布的《监管沙盒快速通道指引》设立,主要针对模式化较强、功能特征相似的金融科技产品或服务,依照预先厘定的规则制定实验框架,对相关的产品或服务作"真实市场环境下"的实验,以测试其性能,探究其潜在风险。[44]快捷沙盒具有对象特定、审批高速、架构明确、监控实时等特点,且其快速审批和监管豁免机制使得金融科技公司得以更低的监管标准、更快的审核速度和更少的合规成本在市场上运营其创新产品或服务,因而兼具鼓励创新和防范风险的复合价值,能与算法的测试诉求和风险规制的目标形成深度契合。此外,快捷沙盒有助于塑造监管者与受监管企业之间协同合作、互动交流、双向塑造的"对话式、学习式风险规制空间",缓解算法风险规制面临的信息偏在和知识壁垒问题。

  因此,可借鉴新加坡"快捷沙盒"机制,针对算法在金融领域的不同应用场景(智能投顾、算法交易等),分类别构建算法实验的申请条件、监管豁免、业务范围、测试时间、场景框架、实验流程等沙盒架构和方案。满足沙盒进入标准的金融科技企业,可以在无相关牌照或弱合规能力的条件下向金融监管者申请,并通过快速审批进入市场,在可控范围内开展算法运营实验,而监管者将向测试企业提供一定程度的违法豁免和规制指引,使其能在更具监管确定性和包容性的环境下,有效测试其风险。经过测试后,对于测试结果较好的算法,监管者可给予其较高的规制评级,并在监管资源分配、现场检查等层面采取一定的倾斜性放宽;对于测试结果较差的算法,则应给予较低的规制评级,并科以较高的合规要求和干预力度,或者强令其购买相应的保险,建立损害赔偿基金,以保证金融消费者的权益。[7]P55

  二是依托于"定制化披露"和"严格化披露"两种披露模式,构建可选择的算法披露机制。算法与金融消费者的实力失衡本质上属于叠加了一定程度"知识不对称"的"信息不对称",因此,算法披露不仅要实现算法信息的市场化和公开化,也要实现算法机理的简单化和可视化。可鼓励金融科技企业推行"定制化披露"措施,即立足于"场景思维"理论,通过身份背景挖掘、客观环境评估、交易场景再现、行为特征总结和心理状态模拟等分析技术,绘制用户画像,实现金融消费者信息需求的深度发掘和信息推送的个体适配。[45]P82-83不过,限于当前金融科技企业合规能力和资金技术的局限,强制要求所有金融科技企业采用"定制化披露"无异强人所难。因此,不宜将"定制化披露"作为刚性要求,可嵌入激励性结构,将"强制采用"转化为"鼓励选用",构建起以"定制化披露"和"严格化披露"为基础,可选择的算法披露机制。

  具言之,应针对"严格化披露"和"定制化披露"方案分别设计相应的披露要求。对于"严格化披露",监管主体应要求算法运营者披露该算法意义、功能、目的、风险,及作出自动化决策的理由和具体逻辑,包括但不限于系统的需求规范、决策树、预定义模型、标准和分类结构等,并对上述信息予以必要解释。[18]P59相关公司必须完整、全面披露和解释上述信息,而不能以商业秘密或竞争利益为由拒绝。若企业不想暴露其商业秘密或损失其竞争优势,可通过构建"定制化披露"系统,仅需分别对单个消费者披露"哪些数据用于作出该算法决策,这些数据如何影响该决策",以及"算法决策可能对他(们)造成怎样的后果(风险)"即可。[2]P12通过差异化的披露标准设计,相关企业会产生通过研发或购买个性化算法披露技术以减少合规成本和维护竞争优势的内在激励,因而可以推动"定制化披露"在市场的铺开适用。此外,除了设置差异化披露标准,监管主体也可通过专业指导、技术供给和产品补助等形式进一步激励金融科技企业对个性化算法披露技术的应用。

  2.科技治理嵌入命令控制型工具:自动化监管与代码规制

  不论是英国2015年发布的《支持监管科技的发展与应用:意见征集》,还是我国证监会2018年连续发布的《中国证监会监管科技总体建设方案》(以下简称"监管科技建设方案")《稽查执法科技化建设工作规划》,监管科技已成为国内外金融监管改革的重点议题。因此,面对金融科技算法技术所带来的新型风险,可尝试在传统的命令控制型工具中嵌入"科技治理"范式,破除当前金融科技算法风险的规制困境。具体来说:

  一是推动自动化监管模式的落地和应用。自动化监管技术以数据聚合和管理、应用程序接口和自然语言处理等技术为基础,通过将监管的技术系统直连各个金融机构的后台系统,[46]P84在被监管机构与监管机构之间建立一个可信、可持续和可执行的"监管协议和合规性评估、评价和评审机制".[47]P76英国FCA即在与英格兰银行合作推动"数字法规报告"项目,旨在"探索如何通过技术将法规、合规程序、公司政策和标准与公司交易应用程序和数据库链接起来",以"为一种模型驱动的、机器可读的监管环境提供可能".[48]从优化算法风险规制工具的角度看,自动化监管促使规制受体从主动的、显性作为的报告义务转向被动的、潜移默化的数据上传,并通过自动化数据共享实现监管信息的全系统流通,可以有效解决当前算法差异化制度缺乏有效监督手段和人工干预缺乏瞬时反应能力等问题。同时,作为数据处理中枢的算法,其自主分析过程的"逻辑隐层"使得传统监督方式难以掀开"黑箱盖子",而同样作为数据接收处理系统的自动化监管则能"绕过表层"直接"窥测到算法内部".因此,针对算法风险存在的黑箱壁垒、瞬时突发、高速传染等问题,以自动化监管作为算法风险规制的制度载体,将监管数据系统与算法数据处理中枢直接相连,无疑成为了当前规制手段革新的必由之路。当前,证监会印发的《监管科技建设方案》提出了监管科技建设三阶段规划,其中3.0阶段即要求实现"业务流程的互联互通和数据的全面共享"以及"实时数据采集、实时数据计算、实时数据分析".央行、银保监会也应积极开展相关研究并及早推出相关的监管科技建设方案,以实现我国金融风险监管的智能化再造。

  二是以代码规制实现内嵌化监管。"代码创设了算法的运行方式,其亦有反向管理算法的权能。"[13]P39在算法设计过程中,通过法律的价值和规则影响算法的回报函数,加强对决策算法的法律归化,使其从陌生的、可能有危险的东西转变成能够融入社会文化和日常生活之中的驯化之物,成为了当前算法风险规制的必要环节。[49]P149Magnuson提出可在智能投顾和算法交易的算法中内嵌"断路器"类型的规制工具,在不过分抑制算法决策行为的前提下有效减少市场波动,防止在各方急于止损时出现的多米诺风险效应。[50]P1218因此,当前监管部门规制工具改革的重要方向即,通过计算机程序的预置和代码规则的内嵌来提高"命令控制"的针对性和准确性。在此模式下,监管者将扮演双重角色:一是制定法律法规;二是与技术专家合作,将"法规代码化"嵌于算法内部,从而使法律法规经代码转介而获得实现。[51]P76-77
  参考文献
  [1] Joint Committee of The European Supervisory Authorities.Joint Committee Final Report on Big Data[EB/OL].,http://h-s.www.esma.europa.eu.forest.naihes.cn/sites/default/files/library/jc-2018-04_joint_committee_final_report_on_big_data.pdf,2018-3-15.
  [2] Monetary Authority of Singapore.Principle to Promote Fairness,Ethics,Accountability and Transparency(FEAT) in the Use of Artificial Intelligence and Data Analytics in Singapore's Financial Sector[EB/OL].http://h-s.www.mas.gov.sg.forest.naihes.cn/publications/monographs-or-information-paper/2018/feat,2019-12-26.
  [3] Hong Kong Monetary Authority.High-level principles on Artificial Intelligence[EB/OL].http://h-s.www.hkma.gov.hk.forest.naihes.cn/media/eng/doc/keyinformation/guidelines-and-circular/2019/20191101e1.pdf,2019-11-1.
  [4] Hong Kong Monetary Authority.Consumer Protection in respect of Use of Big Data Analytics and Artificial Intelligence by Authorized Institutions[EB/OL].http://h-s.www.hkma.gov.hk.forest.naihes.cn/media/eng/doc/key-information/guidelines-and-circular/2019/20191105e1.pdf,2019-11-5.
  [5] Sopnendu Mohanty.大数据算法成金融监管的应用趋势[EB/OL].http://finance.sina.com.cn.forest.naihes.cn/money/bank/bank_hydt/2018-07-09/docihezpzwu1090489.shtml,2018-7-9.
  [6]周仲飞,李敬伟。金融科技背景下金融监管范式的转变[J].法学研究,2018,5.
  [7]黄博文。算法不完备性及其治理-以互联网金融消费者保护为中心[J].西南金融,2018,8.
  [8]杨东,文诚公。论互联网背景下金融权的生成[J].中国人民大学学报,2015,4.
  [9]季洁。算法歧视下的金融风险防控[J].上海金融,2018,10.
  [10]蒋辉宇。论智能投顾技术性风险的制度防范[J].暨南学报,2019,9.
  [11] 王焕超。如何让算法解释自己为什么"算法歧视"[EB/OL].http://finance.sina.com.cn.forest.naihes.cn/stock/relnews/us/2019-06-13/docihvhiews8657619.shtml,2019-6-13.
  [12]黄庄庄,张笑寒,谭皓予。智能投顾技术原理与应用分析[J].金融电子化,2018,3.
  [13]崔靖梓。算法歧视挑战下平等权保护的危机与应对[J].法律科学,2019,3.
  [14][以色列]尤瓦尔·赫拉利。未来简史[M].林俊宏译,北京:中信出版集团,2017.
  [15]杨成越,罗先觉。算法歧视的综合治理初探[J].科学与社会,2018,4.
  [16]徐琳。人工智能推算技术中的平等权问题之探讨[J].法学评论,2019,3.
  [17][美]凯斯·R.桑斯坦。信息乌托邦:众人如何生产知识[M].毕竞悦译,北京:法律出版社,2008.
  [18]张凌寒。风险防范下算法的监管路径研究[J].交大法学,2018,4.
  [19] 你关心的,才是头条[EB/OL].http://baijiahao.baidu.com.forest.naihes.cn/s?id=1588032366644652967&wfr=spider&for=pc,2017-12-28.
  [20] Securities and Exchange Commission,Securities and Exchange Commission v.Craig S.Lax,Civil Action NO.2:15-cv-01079-WHW-CLW(D.N.J.)[EB/OL].http://h-s.www.sec.gov.forest.naihes.cn/litigation/litreleases/2015/lr23194.htm,2015-2-10.
  [21]赵胜民等。算法交易与套利交易[M].福建:厦门大学出版社,2010.
  [22]郑毓栋。资管新规下智能投顾的发展趋势与国际经验[J].清华金融评论,2018,4.
  [23] 周炎炎。资管新规解读(2)智能投顾首度纳入监管,模型主要参数等要报备[EB/OL].http://h-s.www.thepaper.cn.forest.naihes.cn/news Detail_forward_1868922,2017-11-17.
  [24] 徐忠。人民银行研究局局长徐忠:大科技公司涉足金融的挑战[EB/OL].http://h-s.www.iyiou.com.forest.naihes.cn/p/86271.html,2018-11-26.
  [25] 巴曙松,樊纲。经济二次探底可能性不大[EB/OL].http://finance.sina.com.cn.forest.naihes.cn/money/bank/renwu/20090923/12566784187.shtml,2009-9-23.
  [26] Douglas W.Arner,Janos N.Barberis,Ross P.Buckley.Fintech,Regtech,and the Reconceptualization of Financial Regulation[J].Northwestern Journal of International Law&Business,2017,NO.3.
  [27]丰霏。法律制度的激励功能研究[M].北京:法律出版社,2015.
  [28]沈伟,李术平。迈向统一监管的资管新规:逻辑、工具和边界[J].财经法学,2019,5.
  [29] Douglas W.Arner,Janos N.Barberis,Ross P.Buckley.The Evolution of Fintech:A New Post-Crisis Paradigm[J].Georgetown Journal of International Law,2016,NO.4.
  [30]黄震。不完备法律与金融科技风险监管[J].清华金融评论,2019,5.
  [31] 应飞虎,涂永前。公共规制中的信息工具[J].中国社会科学,2010,4.
  [32][美]迈克尔·德宾。打开高频交易的黑箱[M].谈效俊,赵鲲,朱星星译。北京:机械工业出版社,2013.
  [33] 习近平:设立国务院金融稳定发展委员会,金融监管要问责[EB/OL].http://www.01caijing.com.forest.naihes.cn/article/16457.htm,2017-7-15.
  [34]唐波,李秦。系统性金融风险监管主体制度改革的国际实践与借鉴[J].湖南社会科学,2019,6.
  [35]马长山。智能互联网时代的法律变革[J].法学研究,2018,4.
  [36]马长山。智慧社会背景下的"第四代人权"及其保障[J].中国法学,2019,5.
  [37]袁康。社会监管理念下金融科技算法黑箱的制度因应[J].华中科技大学学报(社会科学版),2020,1.
  [38][英]科林·斯科特。规制、治理与法律:前沿问题研究[M].安永康译。北京:清华大学出版社,2018.
  [39][英]詹姆斯·柯兰,娜塔莉·芬顿等。互联网的误读[M].何道宽译。北京:中国人民大学出版社,2014.
  [40] Chris Brummer,Yesha Yadav.Fintech and The Innovation Trilemma[J].The Georgetown Law Journal,2019,NO.2.
  [41]邢会强。人工智能时代的金融监管变革[J].探索与争鸣,2018,10.
  [42][美]科菲。看门人机制:市场中介与公司治理[M].黄辉,王长河译。北京:北京大学出版社,2011.
  [43] Dirk A.Zetzsche,Ross P.Buckley,Douglas W.Arner,Janos N.Barberis.From Fintech to Techfin:The Regulatory Challenges of DataDriven Finance[J].New York University Journal of Law and Business,2018,NO.2.
  [44] Monetary Authority of Singapore.Sandbox Express Guidelines[EB/OL].http://h-s.www.mas.gov.sg.forest.naihes.cn/-/media/MAS/Smart-Financial-Centre/Sandbox-Express/Sandbox-Express-Guidelines-7-Aug.pdf?la=en&hash=34A6F1C3CCB27E2BB900D81F87A3A7FF44220D38,2019-8-7.
  [45]王怀勇,邓若翰。互联网金融消费者教育制度研究[J].南方金融,2017,11.
  [46] 杨东。监管科技:金融科技的监管挑战与维度建构[J].中国社会科学,2018,5.
  [47]张家林。监管科技(Regtech)发展及应用研究-以智能投顾监管为例[J].金融监管研究,2018,6.
  [48] Financial Conduct Authority.Digital Regulatory Reporting[EB/OL].http://h-s.www.fca.org.uk.forest.naihes.cn/digital-regulatory-reporting,2020-10-14.
  [49]姜野。算法的规训与规训的算法:人工智能时代算法的法律规制[J].河北法学,2018,12.
  [50] William Magnuson.Regulating Fintech[J].Vanderbilt Law Review,2018,NO.4.
  [51]李敏。金融科技的系统性风险:监管挑战及应对[J].证券市场导报,2019,2.

如果您有论文代写需求,可以通过下面的方式联系我们
点击联系客服

提交代写需求

如果您有论文代写需求,可以通过下面的方式联系我们。