花旗高管:生成式人工智能在银行业具有变革性,但对客户支持有风险

花旗高管:生成式人工智能在银行业具有变革性,但对客户支持有风险

生成式人工智能在花旗内部创造了一个深刻而积极的转变,转向数据驱动的决策,但目前,这家美国排名前三的银行已经决定不使用面向外部的聊天机器人,因为风险仍然太高。

这些言论来自花旗的分析技术和创新主管Promiti Dutta,她周五在纽约举行的VB人工智能影响之旅期间发表演讲。

“四年半前,当我加入花旗时,在我谈论人工智能之前,数据科学或分析往往是事后才想到的。我们曾经认为:'我们将使用分析来证明企业已经想到的观点,'“她在我主持的一次谈话中说。人工智能的出现对我们来说是一个巨大的范式转变,“她说。“它实际上将数据和分析置于一切的最前沿。突然之间,每个人都想用 Gen AI 解决所有问题。"

花旗生成式人工智能应用的“三大桶”

她说,这创造了一个有趣的环境,整个组织的员工都开始提出人工智能项目。该银行的技术领导者意识到,并非所有事情都需要用人工智能来解决,“但我们没有说不,我们实际上让它发生了。我们至少可以开始围绕数据可以为他们做些什么进行对话,“Dutta说。她对围绕数据的文化好奇心的开始表示欢迎。(在下面的视频中查看她的完整评论。

该银行开始根据“有意义的结果”对生成式人工智能项目的优先级进行排序,这些结果可以推动时间价值,并且具有确定性。

理想的项目分为三个主要部分。首先是“座席协助”,其中大型语言模型(LLM)可以为呼叫中心座席提供有关花旗对客户的了解的摘要笔记,或者在对话中更轻松地记下笔记并查找座席的信息,以便他们能够更轻松地响应客户的需求。她说,它不是面向客户的,但仍然向客户提供信息。

其次,LLM可以通过总结文本和帮助员工找到他们正在寻找的文档来自动执行手动任务,例如阅读有关风险和控制等内容的大量合规文档。

最后,花旗在内部创建了一个内部搜索引擎,将数据集中在一个地方,让分析师和其他花旗员工更容易获得数据驱动的见解。她说,该银行现在正在将生成式人工智能集成到产品中,以便员工可以使用自然语言即时创建分析。她说,该工具将在今年晚些时候提供给数千名员工。

面向外部的 LLM 仍然风险太大

然而,她说,当涉及到在外部使用生成式人工智能时——例如,通过支持聊天机器人与客户互动——该银行已经决定,在黄金时段,它仍然风险太大。

在过去的一年里,有很多关于LLM如何产生幻觉的宣传,这是生成式人工智能的固有品质,在某些用例中可以成为一种资产,比如说,作家正在寻找创造力,但当精确性是目标时,可能会有问题:“事情可能会很快出错,还有很多东西需要学习,“杜塔说。

她说:“在这个行业中,每一次客户互动都非常重要,我们所做的一切都必须与客户建立信任,我们不能承受任何互动出现任何问题。

她说,在某些行业中,LLM可以用于与客户的外部沟通,例如在购物体验中,LLM可能会建议错误的鞋子。她说,客户不太可能对此感到太沮丧。“但是,如果我们告诉你获得一个你不一定想要或不需要的贷款产品,你就会对我们失去一点兴趣,因为这就像,'哦,我的银行真的不明白我是谁。

她说,该银行确实使用了在 2022 年底生成式 AI 出现之前成为标准的对话式 AI 元素,包括预先编写脚本的自然语言处理 (NLP) 响应。

花旗在学习过程中了解法学硕士可以做多少

她表示,该银行不排除未来在外部使用LLM,但需要“努力”实现这一目标。银行需要确保始终有人参与其中,以便银行了解技术不能做什么,并“随着技术的成熟而从那里分支”。她指出,银行也受到高度监管,在部署新技术之前必须经过大量的测试和验证。

然而,这种方法与富国银行形成鲜明对比,富国银行在其 Fargo 虚拟助手中使用生成式人工智能,该助手使用语音或文本在智能手机上为客户的日常银行问题提供答案。该银行表示,Fargo有望达到每年1亿次互动的运行速度,该银行的首席信息官Chintan Mehta在我1月份主持的另一次演讲中表示。他说,Fargo在其流程中利用了多个LLM来完成不同的任务。富国银行还将 LLM 集成到其 Livesync 产品中,为客户提供目标设定和规划建议。

生成式人工智能改变银行的另一种方式是迫使它重新评估在哪里使用云资源,而不是留在本地。Dutta说,该银行正在探索通过Azure的云服务使用OpenAI的GPT模型来做到这一点,尽管该银行过去在很大程度上避免使用云工具,而是更愿意将其基础设施保留在本地。她说,该银行还在探索开源模型,如Llama和其他模型,这些模型允许该银行将内部模型用于其本地GPU。

法学硕士正在推动花旗的内部转型

Dutta说,一个银行内部工作组审查所有生成式人工智能项目,这一过程一直到该银行首席执行官简·弗雷泽(Jane Fraser)。Fraser 和执行团队亲力亲为,因为要实现这些项目需要财务和其他资源投资。Dutta说,该工作组确保任何项目都以负责任的方式执行,并确保客户在使用生成式AI期间是安全的。工作组提出了这样的问题:“这对我们的模型风险管理意味着什么,对我们的数据安全意味着什么,对其他人如何访问我们的数据意味着什么?

Dutta说,生成式人工智能创造了一个独特的环境,在这个环境中,银行的顶层和底层都有热情,以至于有太多的手在锅里,也许需要抑制这种热情。

在回应Dutta的演讲时,Microsoft负责任AI工程的全球负责人Sarah Bird表示,花旗对生成式AI的彻底方法反映了最佳实践。

Microsoft正在努力修复LLM错误

她说,正在投入大量工作来修复LLM仍然可能犯错误的情况,即使他们已经有了事实来源。例如,许多应用程序都是使用检索增强生成 (RAG) 构建的,其中 LLM 可以查询数据存储以获取正确的信息来实时回答问题,但该过程仍然不完美。

“它可以添加不应该存在的额外信息,”伯德说,她承认这在许多应用程序中是不可接受的。

Microsoft一直在寻找消除这些接地错误的方法,伯德在Dutta之后的一次演讲中说,我也主持了这次演讲。“这是一个我们实际上已经看到很多进展的领域,你知道,还有更多工作要做,但有很多技术可以大大提高它的有效性。她说,Microsoft花了很多时间对此进行测试,并寻找其他方法来检测接地错误。Microsoft看到了“在可能性方面取得非常迅速的进展,我认为在明年,我希望我们能看到更多。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5623.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

OpenAI 与埃隆·马斯克 (Elon Musk) 的电子邮件中的 5 个揭示细节

下一篇

纽约医院高管:多模式法学硕士助理将在患者护理中创造“范式转变”

微信公众号

微信公众号