挑战
随着全球商业的加速发展,Adyen(一家上市的金融科技平台)正在帮助 Meta、Uber、H&M 和微软等大型公司通过提供端到端的支付功能、数据驱动的洞察力和金融产品来更快地实现其目标,这些都整合在一个全球性的解决方案中。
随着更多商家加入和交易量的增加,支持团队承受着越来越大的压力。Adyen 的一个团队立即寻求利用解决方案。“我们是工程师,所以我们一直在寻找利用技术扩展业务的方法,而无需增加团队规模,”Adyen 数据工程高级副总裁 Andreu Mora 表示。“我们希望了解、利用和推进像 LLM 这样的技术,使我们的团队和客户更高效、更满意。”
Adyen 在其位于西班牙马德里 的新的技术中心组建了一个新的精干的数据科学家和机器学习工程师团队,以承担一系列具有高影响力的项目,最初的目标是加速支持团队的工作。
解决方案
专注于支持团队的效率和满意度,使团队意识到团队之间传递工单是影响响应时间的一个主要因素。这一挑战特别适合通过两个最初的 LLM 应用来解决
- 一个智能工单路由系统,旨在根据内容将工单尽快路由到合适的支持人员
- 一个支持代理副驾驶,旨在通过他们称为“问题解答建议”的方法帮助代理更快、更准确地回复工单。
Adyen 选择使用 LangChain 进行构建,因为他们可以依靠一个易于定制的单一框架,从原型到生产,并在他们进行实验时避免锁定到单个模型。他们还依赖 LangChain 的开发平台 LangSmith 来评估其应用程序的性能,并比较不同的底层模型如何影响响应质量和成本。
LangChain 的灵活性允许 Adyen 轻松地在各种 LLM 之间切换链的核心部分。为了确保与他们的内部 LLM API 端点无缝交互,他们引入了一个从 LangChain 的基础 LLM 类扩展的自定义类,并将其与托管在 Kubernetes 集群中的事件驱动微服务架构集成在一起。有关 Adyen 的智能工单路由和支持代理副驾驶背后技术方面的更深入探讨,请查看Andreu Mora 和Rafael Hernandez(运营 AI 团队负责人)在 Adyen 博客上的技术深入分析此处。
结果
更高效、更准确的工单路由
Adyen 智能工单路由器的基础是一个内部工具,它分析每个工单的主题和情感,并根据用户动态更新其优先级。 凭借 Adyen 广泛的产品、功能和服务,这种 LLM 驱动的方法使商家能够获得最适合快速响应的技术专家的支持。
更快的支持响应时间
在短短 4 个月内,Adyen 团队能够构建一个全面的相关文档集合(结合公共和私有公司文档),并将它们存储在一个向量数据库中,并使用一个针对有效检索进行了优化的嵌入模型。该团队在生成建议的工单回复过程中的第一个里程碑是从公共和私有文档集合中找到最相关和最新的文档。这种方法远远优于传统的基于关键字的搜索,而且同样重要的是,它立即建立了团队对新系统的信任。
下一步是连接到一个 LLM,通过他们专有的副驾驶为支持代理生成建议的回复。“凭借其队列中合适的工单集以及触手可及的易于修改的潜在客户查询答案,支持代理更高效,也更满意。”Andreu 说。