近日,清华大学五道口金融学院院长张晓慧在第三届外滩金融峰会上表示,在算法监管上,必须确立公开透明原则,以保证用户受到公平对待,对自动化决策要事前做好风险或影响评估,避免算法滥用带来的风险。未来还应考虑将算法纳入反垄断监督。
张晓慧指出,数字经济提升经济效率、改善客户体验主要依靠算法。实践中,大型科技公司的算法已在很大程度上影响了用户的消费行为。
算法的复杂性以及算法使用者的刻意隐瞒,使得绝大多数人无法理解算法的工作原理,导致作为算法使用者的大型科技公司,特别是那些几乎控股了所有与个人生活行为相关的数字平台公司得以处于事实上的支配地位,形成“算法霸权”,从而严重危害了算法相对人也就是消费者的合法权益。
张晓慧进一步分析称,算法已经成为大型科技公司控制市场的主要工具。算法打着保护竞争优势和商业秘密的名义,为大型科技公司故意隐藏规则、操纵消费者和制造歧视创造了更多的灰色空间。
一是通过不公平排名,偏向自家产品或者商业利益伙伴。
二是存在算法歧视问题。包括价格歧视、身份性别歧视、教育歧视等等,“大数据杀熟”就是价格歧视的一种表现形式,对不同用户提供不同的商品定价。
三是通过诱导性信息与风险隐藏,诱导消费者过度消费和承担风险。智能算法往往容易掩盖金融风险的复杂性,不仅会引导过度消费和负债,还可能在金融投资领域中误导投资者。
第四,大型科技公司在经营模式和算法上的趋同,很容易引发羊群效应,导致市场大起大落。尤其是大型科技公司的服务对象多为金融专业知识和识别能力均较弱的社会公众,往往更容易引发社会群体事件,可能导致系统性金融风险。
张晓慧建议,大型科技公司的主要算法需要实施外部监管和提高透明度。针对算法“黑盒”导致的算法推荐运作过程和决策机制并不清晰的问题,有关部门要求算法推荐必须增加“透明度”,包括制定并公开算法推荐相关服务规则,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等。
在人民银行发布的征信新规中,第25条就要求征信公司必须公开个人信用评分算法模型。在国家网信办发布的《互联网信息服务算法推荐管理规定(征求意见稿)》中,也针对“大数据杀熟”和“算法歧视”等问题,要求从业者完善算法管理制度,优化算法推荐,定期审核和评估算法模型,加强内容管理,促进算法应用向上向善。
~~~~~~
以下为演讲全文:
近年来,互联网、大数据、云计算、人工智能、区块链等技术加速创新,日益融入经济社会发展各领域全过程,数字经济发展速度之快、辐射范围之广、影响程度之深前所未有,正在成为重组全球要素资源、重塑全球经济结构、改变全球竞争格局的关键力量。
在数字经济的背景下,如何充分发挥以数字金融、智慧金融为代表的金融科技在促进金融业加快转型升级、更好服务实体经济上的作用,是当下中国金融业必须直面的挑战。从近期我国金融科技的发展来看,可能有几个问题需要给与高度关注:
一、平衡兼顾数据治理中的隐私保护与公平利用
数字经济固然可以提高经济效率,但前提是必须做好数据治理,特别是数据的隐私保护与数据的公平利用。当前中国在数据治理上仍面临较大挑战。一方面,大型科技公司过度采集客户数据,在各产品条线上混用数据,侵犯客户数据隐私。为了获得平台公司的金融服务,中国的消费者往往需要向其提供个人信息,过度采集数据的问题比比皆是。
在2016-2017年“现金贷”高速增长期间,甚至出现了买卖借款人信息的情况。还有一些科技公司随意将用户数据在不同的产品条线上混用,加大了隐私保护的难度。这即便在发达国家也是不允许的。试想一下,如果谷歌、微软和亚马逊等公司可以随意调用个人信息开展金融业务,那这些机构可能早就成为全球金融市场上最大的放贷机构了。
另一方面,大型科技公司在数据开放利用上存在不足。一些大型科技公司阻碍客户的数据向竞争对手迁移,影响了用户在不同平台之间的自由选择。而且,由于数据不能开放使用,一些商家无法将自己在平台上的数据开放给商业银行,由商业银行直接授信、放贷,却只能依靠大型科技公司的联合放贷或者助贷。
欧盟在数字治理方面走得比较靠前,很多理念和方法被其他国家和地区所借鉴,包括《通用数据保护条例》以及最近制定的《数字服务法案》和《数字市场法案》。
概括起来,一是对数据隐私进行最严格的保护,加强用户对数据的控制。《通用数据保护条例》提出了公平透明、目的限制、最小必要、准确、存储限制、完整及保密等个人数据处理原则,并强化了用户对个人数据的控制,包括知情权、反对权、限制权、被遗忘权、可携带权等等。
二是规定大型科技公司不得基于“核心平台服务”来整合个人数据。也就是说,大型科技公司不得将自己获取的个人数据与从其他渠道获取以及来自第三方服务的个人数据整合在一起,必须建立数据的防火墙,每个服务模块都要保护自己获取的个人数据。
三是大型科技公司不得使用商业用户产生的数据与这些用户开展竞争。商业客户在平台上提供或者产生的数据一般属于商业机密。如果大型科技公司只是纯粹的平台业务,这不会扭曲竞争,但如果在获取商业洞见之后开展自营业务,显然极不公平。
四是大型科技公司要为商业用户或经其授权的第三方机构提供数据使用便利。此举旨在消除大型科技公司对商业用户数据的垄断,类似于“开放银行原则”在数据市场中的应用。
五是商业用户和终端用户向大型科技公司提供或产生的数据具有可携带性。《通用数据保护条例》已经引入了可携带性概念,《数字市场法案》更是将这一措施由自然人拓展至法人,为商业用户和终端用户在不同平台之间的自由切换提供了便利。中国也应该借鉴欧盟的做法,在数据治理中努力平衡兼顾好隐私保护和公平利用的关系。
不仅要明确区分数据作为私人产品和准公共品、公共品的边界,也要厘清各类数据的多重性以及数据跨界混合使用可能产生的系统性风险和社会副作用;严格落实《数据安全法》、《个人信息保护法》等法律法规,努力改进和提高监管能力,坚持制度规范和技术防护双管齐下,严防数据误用、滥用,切实保障金融数据和个人隐私安全。
二、对算法应实施公开透明监管
数字经济提升经济效率、改善客户体验主要依靠算法。实践中,大型科技公司的算法已在很大程度上影响了用户的消费行为。算法的复杂性以及算法使用者的刻意隐瞒,使得绝大多数人无法理解算法的工作原理,导致作为算法使用者的大型科技公司,特别是那些几乎控股了所有与个人生活行为相关的数字平台公司得以处于事实上的支配地位,形成“算法霸权”,从而严重危害了算法相对人也就是消费者的合法权益。
应该说,算法已经成为大型科技公司控制市场的主要工具。算法打着保护竞争优势和商业秘密的名义,为大型科技公司故意隐藏规则、操纵消费者和制造歧视创造了更多的灰色空间。
一是通过不公平排名,偏向自家产品或者商业利益伙伴。比如,金融科技公司给出的资产配置偏向推荐与其自身利益高度相关的商品,还有些平台会通过特定算法去过滤质量较差的商品,但自家的商品或服务却在豁免之列。
二是存在算法歧视问题。包括价格歧视、身份性别歧视、教育歧视等等,“大数据杀熟”就是价格歧视的一种表现形式,对不同用户提供不同的商品定价。而且相较于传统歧视行为,算法歧视往往更难加以约束。歧视定价只有垄断企业才能做到,在充分竞争市场上是不会存在的,属于新型垄断行为。
三是通过诱导性信息与风险隐藏,诱导消费者过度消费和承担风险。智能算法往往容易掩盖金融风险的复杂性,不仅会引导过度消费和负债,还可能在金融投资领域中误导投资者。
此外,大型科技公司在经营模式和算法上的趋同,很容易引发羊群效应,导致市场大起大落。尤其是大型科技公司的服务对象多为金融专业知识和识别能力均较弱的社会公众,往往更容易引发社会群体事件,可能导致系统性金融风险。
鉴此,大型科技公司的主要算法需要实施外部监管和提高透明度。因为算法若对使用者(平台管理者)不利,他们肯定会马上作出改变;但若对消费者不利,则只有在被曝光或强制公开透明时,才有可能改正。这一点已为监管部门充分认识并采取相应措施。
在人民银行发布的征信新规中,第25条就要求征信公司必须公开个人信用评分算法模型。在国家网信办发布的《互联网信息服务算法推荐管理规定(征求意见稿)》中,也针对“大数据杀熟”和“算法歧视”等问题,要求从业者完善算法管理制度,优化算法推荐,定期审核和评估算法模型,加强内容管理,促进算法应用向上向善。
针对算法“黑盒”导致的算法推荐运作过程和决策机制并不清晰的问题,有关部门要求算法推荐必须增加“透明度”,包括制定并公开算法推荐相关服务规则,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图、运行机制等。
总之,在算法监管上,必须确立公开透明原则,以保证用户受到公平对待,对自动化决策要事前做好风险或影响评估,避免算法滥用带来的风险。未来还应考虑将算法纳入反垄断监督。
三、对互联网消费信贷实施跟传统金融服务一致的监管
互联网消费信贷的快速发展,客观上提高了金融服务的便利性,降低了融资成本,有助于偏远地区、中小企业和普通家庭获得更多金融服务。但由于金融科技部分地改变了传统金融服务的形式,因而出现了监管缺失和监管套利,并由此产生了一定的风险。
一方面,大型科技公司变相从事金融服务,却没有牌照。它们不仅提供信用卡服务、借贷服务、资产管理服务等,甚至还借助互联网等信息技术突破了跨行业跨地域经营的限制,变相吸收公众存款。此外,互联网企业还以普惠金融为名,将客户资源推荐给持牌金融机构,由其提供放贷资金,在没有征信牌照的情况下从事信用信息及助贷服务。
另一方面,互联网消费信贷存在金融价值观扭曲和金融消费者保护不足的问题。众所周知,导致美国次贷危机的一个重要原因就是金融消费者保护不足,一些本不应该获得贷款的家庭在商业银行的游说下背负了沉重的包袱,累积了大量风险。
一般而言,金融价值观倡导“种瓜得瓜、种豆得豆”,反对不劳而获、过度借贷、超前消费的享乐主义。然而近年来,部分金融科技公司在未能对客户进行充分评估的情况下,通过各类消费场景过度营销网络消费贷等金融产品,向学生等实际收入低、还款能力弱、却又偏好通过借贷超前消费的群体大量提供放贷,存在误导用户的行为。
因此有必要按照“相同业务相同监管”的原则,对金融科技公司进行牌照管理,防止监管套利。坦白地说,中国金融科技公司在发展早期享受了“监管红利”。有些机构此前从事与银行类似的存贷款业务,却不需要接受巴塞尔协议下的资本充足率、杠杆比例等监管要求。
这不仅导致了金融科技公司和传统金融机构之间的不公平竞争,一定程度上放大了传统金融机构尤其是中小型金融机构的经营压力,同时也引发了激励扭曲,促使金融科技公司过度追求监管套利,削弱了其通过自身技术创新提升金融服务实体经济的动力。
四、防止大型科技公司的恶性竞争和跨界控股投资
基于“赢家通吃”的动机开展恶性竞争,是大型科技公司常见的手段。由于网络效应的存在,金融科技领域通常会形成“赢家通吃”的局面。根据国际清算银行的研究,数据、网络效应、相互缠绕业务三要素之间是会相互加强并形成一个相互驱动的环链。
一旦大型科技公司成为赢家后,就会获取整个子行业的大部分收益。为了追求“赢家通吃”,不少大型科技公司往往会使用不正当竞争手段。部分大型科技公司在进入新的行业领域后会利用垄断行业的利润去打价格战,通过烧钱、交叉补贴等不公平竞争行为,抢占市场份额,最终形成新的行业垄断,把“赢家通吃”的游戏继续下去。
一旦获取市场支配地位,就会进行排他性竞争并损害消费者利益。由于之前进行了大量补贴,为了回收成本,大型科技公司往往会通过涨价、高额抽成等方式去反向“收割”,并利用市场支配地位,通过逼迫用户进行“二选一”来阻止潜在竞争对手。
因此,必须加强对金融科技领域的反垄断监管,防止恶性竞争。一方面应健全市场准入制度、公平竞争审查制度、公平竞争监管制度,建立全方位、多层次、立体化监管体系,实现事前事中事后全链条全领域监管;另一方面则要及时纠正和规范发展过程中损害消费者利益、妨害公平竞争的行为和做法,防止平台垄断和资本无序扩张,特别是要控制平台公司跨行业的控股投资,维护行业公平竞争,保护消费者合法权益。
当下,国内已有一些拥有数以亿计用户的超级平台既控股了银行和保险公司,又控股了金融科技公司为中小银行服务,它们不仅参与各级政府的智慧城市,还控股了强大的云计算公司为金融机构提供计算储存服务,这其中可能发生的利益冲突、数据风险不容小觑。
目前,鉴于谷歌、亚马逊和微软已在云计算平台上托管了越来越多的银行、保险和市场业务,美国财政部、欧盟、英格兰银行和法国央行都提出,要加强对科技公司云技术的审查,以减轻银行等金融业“过分”依赖云计算平台的风险。我国央行和银保监会也在讨论设立专门服务金融业的云计算和数据中心,银保监会还要求国有大商业银行应免费向城商行、农商行提供金融科技服务。
针对平台垄断和资本无序扩张的监管十分重要,未来除了要明确平台企业的主体责任和义务,建设行业自律机制外,也要开展社会监督、媒体监督、公众监督,形成监督合力。此外,可能还需要建立一个负面清单来防止和应对这类风险。
发表评论 取消回复