金融业生成式AI走到了哪一步?这场大会上反复提及,面临哪些挑战?

证券时报网 2023/09/26
导语

自从ChatGPT引爆了生成式AI(AIGC)的研究热潮,在不到一年时间里,各行各业都在关注这一技术落地的场景。作为紧跟前沿科技的行业,金融领域正在广泛探索生成式AI的落地场景。

从前端赋能,到中后台的业务流程再造……其未来将给金融行业带来哪些颠覆式的变革?这具有巨大的想象力空间。

在金融领域,金融创新无疑正在改变金融市场,监管体系如何平衡新技术创新和金融安全?而在各行各业的想象中,大众的担忧也在滋生。不同于传统AI,生成式AI以训练数据为基础生成,相对具有“觉知力”,这也引发了公众对于生成式AI演化方向的担忧,包括是否替代人力、减少就业、乃至上演《黑客帝国》威胁人类。在9月22日至24日举行的第五届外滩金融峰会上,前述话题也被反复提及。

走到了哪一步?

业内较为共识的是,人工智能技术的最新发展,正在影响到金融行业的方方面面,比如智能投顾、算法交易、借贷以及监管科技等。

“新技术给金融业带来颠覆性变化影响。” 交通银行副行长兼首席信息官钱斌在参与上述峰会时表示,“人工智能已经从专业能力向通用能力转变,出现了涌现效应,其思维链的推理能力和多模态的理解、生成能力,将推动(金融服务)的体力劳动向脑力劳动替代,或者说人机协同,做一些创造性工作。”

在钱斌看来,正是因为5G技术、隐私计算、云计算这三种通用能力的巨大改变,人工智能才真正走向前台。人工智能离不开三个要素——算力、算法、数据,只有这三者共同加持才可以产生更多的价值。

对于未来人工智能的发展对金融行业的赋能,钱斌认为,前期金融行业数字化转型主要解决了服务渠道的下沉和触点触达等前端问题,未来的数字化转型,更多是要解决中后端专业能力的提升,用更多的专业能力、更多的技术来提升经营的质效。

钱斌表示,对于交通银行而言,该行提出要把人工智能打造成交通银行的新名片,希望在降成本、控风险、优体验、创价值方面产生更多的空间。他举例,该行运用人工智能在反洗钱、反电诈领域上发挥了比较大的效果,如节约了50%的人力成本,实现了97%以上的可疑账户的自动识别。

ChatGPT的火爆也带来大模型时代变革。当前此类模型,成为各大科技公司研发重点,“类ChatGPT”的大模型产品纷纷亮相,一时呈现“百模大战”。

那么,大模型可以用到哪些金融业务场景中?

“大模型在金融领域的主要领域有非常确定的落地场景。”阿里云互联网和新金融行业总裁刘伟光表示,尤其在银行、保险、证券等行业。

刘伟光举例表示,大模型在理财、财富管理、保险理赔等领域,可加速提升客户体验。由于大模型对文字、语音理解力的提高,它对证券业的投研投顾有一个非常强的加速。此外,可助力保险机构的效率提升,大大降低劳动力的密集型,实现劳动力的数字化。而银行业的利用空间更加广泛,无论是普惠金融业务还是风控业务,原有的图智能技术加持,可以使得风险可控。

钱斌谈及部署AI大模型问题时表示,他认为大模型是大国重器,基础设施的能力不是一般企业能够支撑的,需要算力、算法、数据三者加持,需要建国家级的基础设施、行业级的基础设施和企业级的基础设施。

AI发展方向:安全、向善

参与上述峰会的新加坡金融管理局首席金融科技官Sopnendu MOHANTY则更关注要规划AI如何更为可信的使用。

Sopnendu MOHANTY深信不疑的一点是,AI将会有非常大的力量影响消费者的预期。Sopnendu MOHANTY认为,要善用数据集,并以可以保护、授信的方式,无缝的、对话式的、对社会负责任的方式和客户进行互动。

“我们需要一个最好的、最强劲的公共基础设施,能够创造这个数据,并且把这个数据进行收集、保护。如果此问题得以解决,AI将会以更负责任的方式向善。”Sopnendu MOHANTY认为,所有的数据集必须以可信的方法进行收集,并以可信的方法存储,并以最负责任的形式进行验证、分发。

对于新技术“向善”的问题,交通银行副行长兼首席信息官钱斌也认同,他认为要关注新技术运用过程当中的一些问题。金融创新必须坚持科技向善的商业伦理,在人工智能运用过程中,要建立有效的管控机制和应急策略,确保生成结果合理、准确、可靠。强化数据治理,关注数据安全,关注云基础设施安全。

监管和法律的挑战

如何确保一个合理的法律和监管政策的环境,让AI可以蓬勃发展?

“AI系统必须要符合法律的规定,就像人一样。”国际货币基金组织副法律总顾问刘岩在参与上述峰会“前沿科技对金融发展及监管的影响”环节时表示,金融创新会影响到金融业务的开展,监管和法律方面的挑战是最大问题。

法律是否能够解释AI的决策?在刘岩看来,是经营AI系统的重要原则。

“AI体系的设计越来越复杂,现在也越来越难预测或说明这个系统做出的决策。这可能会带来AI体系经营者的‘黑箱子’。”刘岩认为,要确保个人和机构在操作这些系统的时候也需要承担责任。

刘岩表示,AI系统没有法律的权利,也没有法律的义务。但是法律必须要确保AI行动可以归因或者是归属到哪个机构。此外,法律还需要建立一个机构,确保AI的错误能够得到纠正。

“在监管和法规方面,这些产品和服务可能是不符合目前的定义,它们已经超出了目前监管的范围。”刘岩表示,在法律系统内,分类是很重要的,需要识别和分类这些产品,才可以确定监管的边界。

来自基辛格的警示

已迈入百岁行列的美国前国务卿亨利·基辛格,在9月23日第五届外滩金融峰会上参与了国际对话环节。

基辛格早在两年前携手人工智能领域的两位专家埃里克·施密特和丹尼尔·胡腾洛赫尔,出版了《人工智能时代与人类未来》,就对人工智能的崛起提出了警示。

在此次峰会上,基辛格再次表示,各个国家在发展人工智能的过程中,必须要确保防止智能技术构成相关科技风险,同时应合理地使用技术,发挥其积极作用,避免对人类社会产生冲击。

“人工智能非常复杂,每一年都会出现新的问题。因此,要发挥领导国家和人员的作用,至少应该认识到人工智能对人类的安全是一种威胁。我不知道具体通过什么方式,但大家在这个问题上都有利益,最终应该像国际原子能组织那样一个国际机构来监管。”基辛格表示。

在基辛格看来,由于各个国家所使用智能技术的程度不同,所以也应有一个协调机制,真正为人类社会提供积极的有效的成果,比如应用于气候变化;而不是仅限于一个单独的单位去使用,应该在全球范围内普惠使用。

要实现这一目标,基辛格建议,中国和美国应进行对话,以确保人工智能技术中先进的技术更好地进行协调、协同。国际之间的沟通交流,才能让人工智能技术得到更合理的应用。他预计,中美双方在人工智能方面治理的合作会继续展开。

编辑: 郭峰
关键字: 金融业 AI

专栏