互博国际(专访蚂蚁:当可信AI走向工业级应用,业界有何典型实践?)

最后更新 :2023-03-18 06:57:11

经过数十年发展,AI作为一项前沿技术,如今已在应用端取得长足进展。

自1950年Alan Turing发表“计算机器和智能”,提出了模仿游戏的想法开始,当前的AI,早已不是一个陌生词汇,而成为在安防、客服、医疗和交通等场景上,都实现阶段性智能化的实用技术。

当应用多地开花,市场空间也水涨船高。比如,IDC就在《2021年中国人工智能软件及应用市场研究报告》中表示,去年中国人工智能软件及应用市场规模达52.8亿美元(约330.3亿元人民币),同比涨幅达到43.1%。

伴随行业快速发展而来的,是产学研届对AI普及的更深度探索。可信AI,就是其中一个典型代表。具体而言,中国信息通信研究院《人工智能白皮书(2022年)》提及了人工智能产品的新“三维”发展坐标——算力算法创新、工程能力提升,负责任和可信的人工智能。

这是一个典型例证,表明人工智能的可信性已经成为和技术创新、工程落地同等重要的考量维度。

那么接下来的问题是,为什么负责任、可信的人工智能,已经成为AI发展一定需要考量的维度?

答案或许让每个人都感同身受——当AI与云计算、物联网相互融合,并在各方面推动社会经济产业的数字化、智能化变革时,风险也如期而至。最明显地,当广大用户们享受数字化的红利,将自身信息用于注册各类网站和APP的同时,数据泄露、黑产攻击等问题同样如影随形。在这一阶段,若想让AI发挥更多作用,公平性和安全可靠性也势必提上日程——这就是可信AI想要解决的问题。

能看到的是,作为数字经济的推动者,科技公司们早已意识到了这点。2021年6月,蚂蚁集团在“2021全球人工智能技术大会”上首次公布了技术架构体系。2021年7月,京东在世界人工智能大会上发布了《可信人工智能白皮书》。在这两家公司的定义中,都将鲁棒性、可解释性、隐私保护、公平性作为可信AI的四大基本属性。

初创公司同样敏锐捕捉到这一趋势。一个现象是,自2018年起,一批关注隐私计算公司也纷纷成立。它们希望解决的问题,就是在帮B端企业客户满足合规使用数据、保护个人隐私数据的前提下,发挥数据流通价值,让数据"可用不可见"。

业界之外,学术界也纷纷投入其中。2021年10月,华人计算机科学家、哥伦比亚大学数据科学研究院主任、ACM与IEEE双Fellow周以真发表了《可信人工智能》一文,讲述了可信AI起源和定义。

不难看出,可信AI已是科技公司、初创公司、学界和监管机构都在推动的方向。其中,科技公司由于业务的推动,走在了可信AI落地的前沿。比如,蚂蚁集团对可信AI的探索可以追溯到2015年。在长达7年的探索与实践中,蚂蚁已经逐步梳理并确立了包含“可解释性与因果分析” 、“数据隐私保护”、和“公平性”在内的技术架构体系。具体包括隐私计算、智能对抗、智能决策、图计算、可解释机器学习等多个技术。

当技术架构确立,落地亦成为顺理成章的话题。36氪了解到,当前蚂蚁的智能风控引擎AlphaRisk,就是一套结合了上述可信AI技术的工业级实践。

对此,蚂蚁集团大安全机器智能部总监、蚂蚁集团技术委员会可信AI联合工作组组长王维强告诉36氪,蚂蚁集团一直视安全为业务的核心和底线,从2004年起,蚂蚁集团就开始进行安全和人工智能算法结合的探索。经过长期积累,如今的风控引擎已经经过多次迭代,从业务易用性和隐私保护、公平性出发,不仅将资产损失率控制在千万分之0.098,更重要的是让更多用户获得个人数据被保护以及算法普惠的体验。

时至如今,当《个人隐私保护法》、《数据安全法》等法律法规纷纷实施,让AI变得可信已经从选择题变成必做题。值此时机,36氪也对王维强及其团队进行了深入访谈,详细拆解了这套业内少有的、工业级可信AI的落地经验。

总结来说,王维强认为蚂蚁集团可信AI的落地,是由业务需求和技术建设的双因素驱动的。而蚂蚁普惠科技与金融风控责任的底色,则是让可信AI持续迭代的价值观动力。“业务需求是初始点,对技术持续的投入是助力,企业的价值观则是根本。希望让每一位蚂蚁用户都享受到更多、更好的技术红利。”王维强如此拆解可信AI在蚂蚁内部的驱动因素。

“AI 的发展本身是一个持续的过程,可信AI的四个属性相辅相成,会一起对AI的落地应用起到非常正向的作用。”这也是他心中的可信AI,如今对AI而言的核心意义。

以下是专访部分(经36氪编辑):

01. 可信AI:让AI走向落地的必经之路

36氪:可信AI的概念已经出现了一段时间,蚂蚁集团一直是可信AI的践行者。具体来说,我们是从何时开始进行可信AI的探索?

王维强:对可信AI的体系化定义是在2021年,包括信通院等单位,以及蚂蚁、京东在内的一些公司几乎同时开始宣讲可信AI的定义。在我们看来,可信AI的主要属性有四个,分别是鲁棒性、可解释性、隐私保护和公平性。对蚂蚁来说,可信AI更像是一个天生的属性。怎么理解这句话?其实和蚂蚁的业务强相关。

蚂蚁集团一直视安全为业务的核心和底线,实际从2004年有了支付宝开始,我们的业务就有很强的安全风控诉求,开始进行一些安全的探索。在应用AI技术的过程中,我们也对AI提出可信的要求。早期的时候,虽然AI 技术还没有现在这么普及,但我们在做安全业务时都要去考虑它的可解释性,以及上线时候的鲁棒性。所以从一开始,可信就是蚂蚁安全业务中,工业级AI 应用自带的属性之一。

而且,随着AI变得普及,比如自动驾驶、客服、物流等各种各样场景的应用。AI全民化应用,让可信AI的普及和产业化诉求越来越强。这也是我们和研究机构、学者,以及其他公司一起推广可信AI的初衷。

36氪:鲁棒性、可解释性、隐私保护和公平性,是可信AI的四个属性。很好奇,为什么是这四个属性成为了可信AI的组成部分?它们之间的关联是什么?

王维强:梳理出可信AI这四个属性,是结合了业务的需求和合规的要求,再加上企业的责任感。业务对应用效果的诉求让AI的鲁棒性和可解释性成为了可信AI的两个必备属性,符合监管要求和对用户的责任让隐私保护和公平性成为了可信AI的另外两个重要组成。

头部公司落地一个能在工业级应用场景中使用的可信AI体系,这几个要素是必不可少的。

首先对于鲁棒性,我们的要求是非常高的。从安全角度来讲,也会把鲁棒性分成几个不同的层面。像数据噪音、数据漂移和被黑产攻击的鲁棒,我们都要去注意。

以数据的漂移举例。数据漂移带来的抖动,如果是在海量数据中看长尾部分,可能带来的影响相对有限。但在安全场景下,我们关注的是AI模型识别出的头部少量黑产数据,一个抖动影响到的用户相对来说就非常大。所以在安全业务的大规模工业级应用里边,我们对AI鲁棒性的要求非常高。在其他场景下,当上线的AI模型追求极致性能的时候,也会产生类似的鲁棒性的要求。

再举个可解释性的例子。随着AI模型本身越来越复杂,从原来的简单模型变成了复杂的深度学习模型,对模型的可解释要求就会非常高了。可解释性做得不好,会影响最终的应用效果,比如说一些公司为了追求业务结果,在登录风控场景用了模型效果更好的深度学习模型,如果没有很好的可解释性,那么可能会直接影响到用户的体验,反而影响到了公司的业务。

所以从鲁棒性和可解释性来看,它们同属于AI 模型的两个不同属性。但都会影响整个模型最终能否在工业级场景里真正地使用起来。

36氪:鲁棒性和可解释性会直接影响到业务效果,那么隐私保护和公平性呢?

王维强:这四个属性有彼此之间的联系,但也有各自偏独立的属性。

鲁棒性和可解释性,是工业级应用本身的强要求。但隐私保护和公平更多是从一家企业的责任和义务角度来讲的。一方面,我们要满足监管的需求。比如《数据安全法》、《个人信息保护法》的出现,提出了新的数据合规要求。另一方面,企业本身的伦理道德标准也要保护用户的个人隐私。比如,在做风控、营销等等交互的时候,我们要考虑到相对弱势群体的使用诉求,同样也要避免大家被大数据杀熟这类事件所困扰。

蚂蚁强调普惠的科技,希望让更多的人有更好的机会享受到最佳的金融服务体验。基于这些前提,我们会对可信AI非常关注。就像刚刚总结的,鲁棒性和可解释性是从业务角度来看的,而隐私保护和公平性更多是考虑到监管合规以及企业责任感。这四个属性之间相辅相成,会一起对AI的落地应用起到非常正向的作用。

02. 蚂蚁可信AI工业级应用:业务需求、技术创新和企业价值观的结合

36氪:具体在落地中,我们对可信AI进行了怎样的探索?是否有可分享的案例?

王维强:以可信AI在风控场景的应用为例,在蚂蚁安全业务的发展过程中,我们的风控引擎AlphaRisk也在不断升级。从原来的规则引擎,发展到模型驱动的引擎,再到2017年开始发布的基于机器学习智能的自动化智能引擎,以及到现在“IMAGE”为架构的引擎。在演进的过程中,里面支撑性的AI技术也在这几年不断发展。

具体来说, IMAGE由以下5大技术组成:

首先, “I”,Interactive Risk Management,交互式主动风控。区别于以往的安全风控模式,交互式主动风控的关键就在于“主动和交互”。它实现了主动打击黑产、优化用户安全体验、提升用户防骗反骗心智的目的。传统的安全强依赖于已知风险模式,但今天,金融安全必须从静态的被动防守,转变为动态的主动对抗。全链路的交互式主动风控体系,通过安全科技和安全产品的升级,让用户主动参与到风控过程中来,提升用户的参与感和信任感。

第二,“M”,Multi-Party Risk Management,多方风控。可以实现风控和隐私保护的平衡。在这里,我们借助多方安全计算等关键技术,在保护合作伙伴用户隐私和商业秘密的前提下,在平台之间实现风险共治,实现1+1>2的风险防控效果,共同维护生态安全。

第三,“A”,Adversarial,代表智能对抗。通过模拟攻击者和防御者之间的冲突,不断对模型加固并反复迭代,以提升模型鲁棒性。就像金庸小说里的“双手互博”,博弈对抗技术能够借助“双手互博”的演习机制,让AI模拟黑产发起对自身的攻击,从而让自身AI在风险识别能力、抗打击能力上持续地自动进化。

接下来,“G”,Graphed Risk Management,全图风控技术。全图风控技术能够通过构建风险关系网络,形成风控知识图谱,实现对风险全链路的、基于关系视角的刻画。同时,这其中还沉淀了包含图特征、图算法、图组件在内的“一体化图运营平台”。以恶意羊毛党为例,这些黑产团伙为了绕开风控,往往会在流程中刻意加入多个甚至几十个中间账户,大幅增加传统风控系统有效管控的成本。而全图风控技术能够借助风险关系网络,全面、快速、准确识别黑产团伙,有效地遏制风险。

最后是“E”,Edge to Cloud Cooperation,端边云协同风控。端边云协同,可以保障数据的使用和保有权真正属于用户。蚂蚁技术团队通过将部分风控模型部署在智能终端(如手机上),建立起多种端云协同的模式,比如“终端进行数据计算和决策、云端仅获取决策结果”的风控模式。终端计算,意味着敏感信息被保留在用户手中,规避了信息传输过程中可能出现的被攻击风险。云端仅获取决策,不仅保障了安全防御和风险控制不受影响,还节约了云端的计算资源。

36氪:那么从效果上看,应用了可信AI技术的IMAGE风控体系,对业务的促进作用体现在?

王维强:从趋势来看,蚂蚁风控引擎里的AI技术,从原来简单的模型变得愈发复杂,这带来的好处是效率越来越高,但问题就是可解释性或者鲁棒性等方面的挑战变大了。所以在这种情况下,我们更要解决AI可靠可信的新要求。

而IMAGE可以说是一个典型实践。这套自研的智能风控技术架构体系,实现了用可信AI保障业务安全的问题。目前在这套风控体系下,我们的资产损失率控制在千万分之0.098,解决了风控场景中的诸多世界难题。

另一个案例是,交互式主动风控技术做出的“叫醒热线”,从用户遭遇潜诈骗风险,到呼出“叫醒”电话,整个过程控制在0.1秒内。这也是全球首个应用于反欺诈领域的交互式主动风控产品,能在诈骗风险发生前进行中止。

36氪:IMAGE其中的技术是否有研发的先后顺序?

王维强:可信AI在蚂蚁内部的落地主要有两条线,分别是业务的发展和技术的演进。从技术的时间顺序,我们有一些重要的节点。

首先在2015年,蚂蚁就开始了关于端安全的可信AI研究,主要是因为当时盗取账户风险面临黑产手法转变为直接窃取手机的风险,所以我们需要采取技术手段,判断手机端上的用户行为是否有被盗风险,用于风控。到2017年底,正式形成了端云风控的技术解决方案。

另外,蚂蚁其实在隐私保护上也做的很早。2016年12月,出于联合风控的需求,我们就开始探索隐私计算技术,当然那个时候还是基于TEE,但现在一方面随着技术演进,另一方面随着欧洲GDPR、国内《数据安全法》等法律法规等出现,蚂蚁的隐私计算已经是包括密码学、机器联邦学习和隐私计算软硬件一体机等比较全面的方案。另外在2019年,蚂蚁的人机结合团队研发AutoML决策规则自动化解决方案,可以提供可解释的、自动化风控决策能力。

在公平性方面,我们联合中科院联合自动化所,一起把有偏推断的技术在深度神经网络的框架下做了进一步的提升,避免了数据偏置带来的AI模型的决策偏置。我们在2021年7月发布基于行为识别技术的支付宝无障碍核身产品,希望帮助视觉障碍用户更好地使用支付宝。同年8月,我们还开发了基于AI公平性的老年人实名认证模型,可以把老年人的认证失败率降低70%。2021年,基于行为识别技术的支付宝无障碍核身产品入选了“第16届中国信息无障碍论坛”信息无障碍优秀典型案例集,以及由CCF YOCSEF技术公益发起的2021CNCC“技术公益”案例集。

完成这些工作后,我们在2021年8月首次对外介绍了IMAGE风控体系,即刚提及的交互式主动风控、多方安全风控、全图风控、端边云风控、智能对抗五大组成部分。

所以,对蚂蚁来说,业务安全和技术探索两条线是同时进行,互相促进的。这也保障了可信AI在蚂蚁集团既是落地的,也是成技术体系的。并且。这些技术技能可以应用于蚂蚁风险防控的安全场景,也可用于其他场景。

36氪:蚂蚁是行业内较早提及可信AI的企业,也拥有IMAGE这种落地案例。如果要总结经验,你觉得做好可信AI的方法论是什么?

王维强:坚持做正确的事。业务需求可能是初始点,为了解决某项具体问题不断进行技术创新和研发,精益求精、做到极致用户体验等。因此对技术持续的投入,和企业的价值观是根本。价值观的方面,刚刚也提到蚂蚁强调普惠科技和对金融风险的敬畏,同时希望让更多人享受到更多、更好的技术红利。

在这一前提下,我们也一直进行技术探索。AI 的发展本身也是一个持续的过程,也要求我们进行一些持续的创新和突破。

自2015年开始布局可信AI,蚂蚁已积累了不少技术成果,2021年权威专利机构IPR daily发布的《人工智能安全可信关键技术专利报告》显示,蚂蚁集团在这一领域的专利申请数和授权数,均位列全球第一。

可信AI隐私保护的技术上,以隐私计算技术为例,蚂蚁从2016年开始推进隐私计算技术,一直到现在,我们的技术能力涵盖了多方安全计算、联邦学习、同态加密、差分隐私、机密计算等,也推出了摩斯多方安全计算平台、开源可信隐私计算框架隐语、蚂蚁链数据隐私协作平台FAIR、蚂蚁隐私计算一体机、开源TEE操作系统Occlum等产品。截至2022年3月,蚂蚁集团隐私计算专利数达1152件,这也是自有该榜单发布以来蚂蚁集团连续两年位列排行榜第一。

另外,蚂蚁在可解释性上也一直有相关技术积累。早在2016年,蚂蚁启动首个风控领域的“图学习”研究项目,期望通过探索复杂风险因素背后的关系,从而实现对风险的深层挖掘和趋势预判,相关算法的可视化和可解释能力便是该项目的重点。至今为止,蚂蚁集团与国内外高校合作,在CIKM、SIGIR、SIGKDD等诸多国际顶级学术会议上发表多篇可解释性相关的论文,通过产学研深度结合的方式持续推进AI可解释性的前沿探索和行业落地。近年来,蚂蚁从“图模型可解释”、“序列模型的可解释”和“文本模型的可解释”,以及更前沿的“基于逻辑的可解释AI”等方面多管齐下。依据不同业务和场景,新建或优化模型算法,构建起了全场景、多领域的可解释AI模型体系。蚂蚁的可解释AI也获得了业界认可。在中国信通院“决策透明度”评测中,蚂蚁集团获得了首批参赛企业中唯一的“卓越级”评价;不仅如此,在人工智能安全性、精准性、公平性和可解释性测评方面,蚂蚁集团也是首批获得“高性能”、“高标准”评价的企业之一。

03. 可信AI的未来:产学研协作、建立生态

36氪:可信AI一直在发展,可能也需要持续发展。你觉得如今的可信AI,还有什么需要提升的地方?

王维强:现在能观察到的,可信AI的要素包括鲁棒性、可解释性、隐私保护和公平性。早期公平性,大家更多关心是否存在歧视。但随着AI 的应用越来越普及,涉及到的用户越来越多,就要关注各个群体的需求,帮助让他们都公平地享受技术特点带来的服务。这种公平性的变化,本身也是一个技术演进的过程。公平其实是一个体感,每个人的感受不同,标准不同,没有一定之规。这是一个现实的挑战,我们从平台的角度,也需要持续努力让更多人有公平的体验,要从算法偏见和算法普惠性两个方面进行持续建设,这一方面,我们也在持续地进行技术和产品上的研发。

另外还有数据。模型的应用和落地,需要数据的支撑。数据可信、运营到位,整个机制完善,才能发挥出AI的能力。

36氪:可信AI的推进有着产学研协作的特征,想了解现在蚂蚁在这些方面进行了怎样的探索?

王维强:去年11月,我们和西安交通大学合作,落地了国内第一门以“可信AI理论及应用实践”为核心内容的产学合作课程——《对抗性机器学习与人工智能安全》。内容围绕“数据隐私保护”、“鲁棒性”、“可解释性与因果分析”、“公平性”四个部分进行设计,涵盖可信AI重要技术理论以及应用实践,蚂蚁集团的技术专家作为业界教师,为学生们讲授可信AI在工业界一线实践的课程,这是个非常有意义的打通产学研的尝试。

最近一档可信AI实战节目ATEC科技精英赛《燃烧吧!天才程序员2·可信AI》正在播出,这是一档原创的代码竞技类节目,也是基于?第二届ATEC科技精英赛(ATEC2021)录制的节目,由蚂蚁集团和清华大学、上海交大、浙江大学联合主办,多所国内外知名高校共同协办的。在这次和比赛中,我们以"科技反诈"为主题,模拟黑产攻击手段和欺诈交易特征,打造接近真实的“网络诈骗识别场景”,探索如何利用可信AI技术帮助反诈。现在我们能看到,大家其实会在特征挖掘、联邦学习的方面进行一些有意思的探索。这也是我们在可信AI方面,和产学研进行合作的一个表现,希望通过创新的真人秀的形式,带大众走近青年科技人,走近他们真实的生活,带来一些科技新风尚。

36氪:可信AI要让更多人认可,也需要建设生态。在这方面,我们做出了怎样的动作?

王维强:可信AI具备的四大特征,分别是针对某个具体问题归纳出来,因此业界对可信AI的应用各有侧重、各有诉求,由此诞生的解决方案厂商也是五花八门、百花齐放。

比如,以“可信AI”中的隐私保护走向来看,业界普遍认为,发展趋势会从以单节点部署模式走向分布式架构模式,未来支撑更大规模、更大量级的建模对技术要求将非常高,这一点在数据量庞大的金融领域实现应用也更加明显。

目前阶段,可信AI的行业标准中,隐私保护相关标准是最多的,如蚂蚁集团就主导和参与了多项隐私计算国际国内标准,截至2022年已累计主导了十余项隐私计算标准,主要包括ISO/IEC、ITU等国际标准,以及CCSA、隐私计算联盟等其他行业组织发起的行标与团标。可信AI整体的技术标准目前蚂蚁集团也做了很多工作,2020年7月,由蚂蚁集团主导编制的国际电信联盟(ITU)智能风控技术ITU-T X.1451(Risk identification to optimize authentication)国际标准正式发布。我们也正在推动和参与更多的行业白皮书、标准的共建工作。

而对于公平性来说,更多的是以企业为主体运营者,通过技术解决AI应用中的不公平问题,需要企业具备一定的道德意识,也需要法律的约束。因此对AI公平性的约束,更多是外部法律法规、条款,以及一些同行同生态圈建立的约定,需要人为因素来共同推动。

总体来说,可信AI走向工业级应用时代,意味着真正的大规模应用,需要从数据可信,到模型可信,到平台可信,到运营可信的工业化生产环境全链路的可信,让可信成为AI技术发展中的一个内在属性,带领AI走向更健康、更加可持续的未来。这也不是一件短期内就能达成的事,需要产业界、学术界人士的共同努力。蚂蚁集团已经持续在可信AI上进行了许多探索。这其中既包括技术,也包括应用落地,同样也有标准和生态的建立,以开放的心态与生态分享技术成果,包括一些平台的开源等。但正如刚才提及的,可信AI本身是随着AI的发展而发展,技术的迭代是持续的,蚂蚁集团也会持续进行多方面探索,让可信AI更加普及。这也是我们从过去到现在,一直在做的事情。

- END -

出国留学读音乐(“音乐之国”求学记(走近非热门留学国(11)))

音乐之国修业记走近非抢手留学国泉源外洋网薛杨扬左一与留学生同砚教师在一同黄韵文右黄...

上海同济留学事务所有限公司(同济大学、东华大学等高校发布“国内留学”招生简章)

同济大学东华大学等高校发布国内留学招生简章澎湃新闻见习记者邹佳雯记者张慧继上海大学...