诺亚财富知识库结合大模型减少70%客服系统工作量

2024-07-11 15:54:18
浏览次数:
返回列表

  诺亚财富知识库结合大模型减少70%客服系统工作量传统企业知识库在构建,应用,维护环节面临各种问题。构建环节的数据打标,后期知识库维护更新需要大量资源投入,在使用时,除了语义理解导致搜索不准确外,在召回相应文件后,还需要人工进行信息搜索总结。

  在与知识库的结合场景中,大模型的主要应用价值展现在语义理解与推理方面,尤其在需要对文字和音视频类知识进行大量搜索与输出的场景中。此时,大模型能够更高效的释放知识库的潜在应用价值。其主要的高价值应用领域包括知识助手、投资顾问助手、客服助手以及合规助手四个方面。

  知识助手:利用大模型,开发人员可以从会话、文档等非结构化内容数据中提取信息,并将其转化为结构化的主题、实践、关键词等原子标签。从而支撑知识助手等上层应用场景,提升知识库应用构建效率,比如对多文档进行连续QA,达成内容总结提取。此外,用户也可以将文档上传至知识库,通过大模型进行自动解析。赋能业务人员使用知识助手对文档内容实现问答式提取,显著提升业务人员对文本知识的应用效率。

  投顾助手:投资顾问往往需要面对上万篇产品文档,在给不同客户进行咨询时,需要大量的查询工作。投顾助手能够自动对度文档进行总结,并生成销售话术。例如,在售前场景中,投顾助手能够依据4K模型,即用户画像、资产配置、市场行情及产品内容,生成定制的话术建议,提高销售效率。同时,一线的理财顾问也可以在此搜索专业知识内容、竞品信息等,及时回答顾客问题。

  客服助手:利用大模型的语义理解能力,客服助手可以从用户对话中提取关键字段,从而生成会话主题事件的总结记录,进一步形成工单,极大提升了场控管理的效率。在此场景下,大模型预计能够降低客服系统超过70%的运营工作量。

  合规助手:合规助手能够基于对话要求快速制定质检规则,并对对话内容的语义进行合规检验,提升质检更新的效率。

  在大模型出现之前,针对不同的业务,不同的场景,每个场景都需要一个独立的机器人辅助该场景下的知识库应用。大模型出现后,企业可以构建统一的知识库,把多来源的结构化、非结构的数据统一进行汇总,形成统一的知识库,通过大模型对知识库内的多模态文档进行解析处理,构建向量化数据库。最后通过提示工程,包括任务链、提示链、思维链的方式,实现自然语言的交互输出。

  在大模型结合知识库的实践中。首先,为了灵活构建知识库应用,企业可以通过将组织架构和业务场景这两大维度自由组合,进行知识应用场景的搭建。其次,在文档解析环节,大模型不仅可以帮助识别综合文、图、表格的多模态文档,还能够对文档版面结构进行识别解析,形成阅读性较规范的解析文本。随后通过向量化切片,存储到向量数据库中。在特定的场景化任务如涉及数字计算、逻辑推理的场景中,大模型无法完成较为准确的输出。此时,可以只利用大模型进行文本解析和抽取的任务,随后使用其他场景化的解决方案完成任务。

  在传统企业知识库构建的整体流程中,企业需要人工整理常见问题解答(FAQ)并训练QA机器人,随后持续地进行系统的维护和优化。但由于它主要依赖预先设置的答案进行训练,导致机器人在实际应用中频繁出现语读错误,无法给出。此外,这类机器人的功能模型泛化能力较差,例如无法进行文本摘要、内容扩展或文本润色。用户需要在检索文档后,手动浏览获取相应信息。

  使用大模型知识助手时,用户可以在查询时采用自然语言进行多轮自然交互,企业无需提前配置任务型的问答流程。大模型能够依据知识库的内容,做出更准确的回答。基于策略不同,大模型不仅支持独立推理并作出回答,同时支持完全基于常见问题解答(FAQ)给出所需答复。同时,加入大模型后,知识库类应用还可支持具有扩展性的问答,用户可以使用知识助手解决相对复杂的问题。例如,在知识库中金融产品相关介绍有一千篇,按特定维度对产品进行分类,假设用户关注产品收益率,可以基于类似循环的递归任务,获取不同产品类型的收益率情况后,再汇总成以表格的形式、或JSON格式、或其他结构化的数据形式进行输出。之后,处理好的数据会在输入到下游的投研分析师,对数据进行进一步的分析工作。这样就能极大提升在某些场景需要大量获取文档信息的效率。

  开源大模型应用到企业知识库中,企业可以从六个方面对开源大模型进行测评:基础语言特性,逻辑与推理能力,语义理解,生成与创作,金融领域能力,安全与合规能力。

  大模型知识库产品的具体落地流程如下:首先需要对数据样本进行脱敏处理,并将其输入到开源大型模型中进行大模型微调。其次,对训练后的领域大模型,进行私有化部署。在大模型应用阶段,可以采用两种方式进行输出内容控制。首先,需要使用提示词进行约束,比如可以选择让大模型完全使用知识库内容进行答复,或者允许其进行扩展回答。其次,为确保输出的准确性和合规性,所有模型产生的答案都会连接到质检系统进行进一步的审查,确保输出内容没有合规风险。

  值得注意的是,在大模型产品知识库应用项目落地时,企业可以将原文本机器人与大模型知识助手进行融合。首先,作为知识来源,企业需要将内部的各类文档,包括在线存储对象等进行上传,构建统一的知识库。为了对高频问题实现精确回答,企业可以额外配置FAQ。使用大模型可以进行自动抽取,并生成相应的 FAQ 行。在人工审核后,将FAQ灌输至知识库中,由此得到更准确的回答。由于大模型支持多轮任务对话,因此在构建知识库时,企业不再需要通过任务型对话方式处理多轮对话场景,加速产品构建上线。

  为了更好地将大模型与知识库进行融合,企业可以建立领域大模型工厂,从数据,指令训练两个方面对大模型进行调优。底层数据平台由公域数据库包括通用类、金融类数据,与企业的私有数据组成。随后将数据注入开源大模型进行微调,形成领域大模型。接下来,进行各种子任务指令的训练,以便未来能够使用AI agent对大模型与小模型进行不同场景的能力调用。

  为了方便使用,在领域大模型工厂之上,企业可以引入提示工程平台。首先,数据的采集、预处理,存储工作都可以在统一数据平台完成,其次,基于该数据平台完成领域大模型训练、指令的生成和模型效果评测,最后米乐M6,通过拖拉拽的方式,供已有的AI原子能力进行组合式的编排,形成特定场景的应用。

  提示工程平台不仅使用了模块化的大模型能力,也可以融入小模型能力项目,如OCR文档解析,语音TTS等,落地到对应场景的过程中,也可以结合外部的插件,使各类场景能达到比较好的性能和成本的平衡。

  诺亚财富在内部的知识应用中,面临产品文档管理散乱,查找使用效率低下的问题。由于企业产品文档数量繁多,来源不同,包括国内、国外、第三方公司总计上万种不同产品,导致投资顾问在售前场景下为不同客户做推荐时,存在大量的查询和匹配工作,前期工作效率较低,对业务结果产生直接影响。

  通过大模型知识助手与文本客服结合,并接入内部数据库,可以对企业内的所有知识进行统一的管理。在售前场景下,实现对客户资产数据和产品推荐文档的统一查询。同时,将该应用集成与内部小程序,对客小程序等渠道上,实现多场景、多渠道的应用。在应用过程中,接入用户鉴权体系,对用户权限进行区隔,管控文档的问答范围。

  在实际运营过程中,该大模型知识库应用减少了70%以上文本客服运营工作,实现50%以上的应答效果提升。

  在数据来源方面,可以把企业内部各种文档进行上传、也支持在线存储对象的上传、和企业内部数据库的链接,这些内容都可以作为知识来源,存储到大模型的语句库中。同时在一些特定的问题上,企业也可以配置FAQ。比如对较为敏感的问题如何回答,高频的场景如何回答。

  在高频问题场景下,企业可以借助大模型自动抽取和生成相应的 FAQ,通过人工审核的方式进行再次验证保证准确,最后灌输到知识库中。类似传统文本客服问答过程中的提问,也可以实现高频问题的挖掘和聚类,补充到FAQ的知识库中。

  由此,相对于传统知识库应用,与大模型结合后,企业知识库应用不需要过多的人工配置即可冷启动上线,且能达到较好的使用效果。

  在FAQ 的语义识别过程中,企业可以使用组合式的方案进行使用配置,包括Bert,向量化检索,ES等。比如在语料较少的情况下,使用其中一种方式检索,语料比较多的情况下,使用另一种方式检索。

  在原有的多轮型任务型对话环节中,企业一般会通过任务型对话的方式进行处理,在大模型的加持下,企业可以构建上下文的记忆能力,产生连续对话的效果。由此,连续对话不需要预先通过任务型的技术方案进行配置,极大减少使用成本。

  曹阳先生,现就职于中关村科金,拥有超过十年的 ToB 产品、数字化建设和协同办公软件产品研发经验,曾就职于阿里、京东、字节、 Shopee 等公司,擅长软件应用设计及信息化系统架构融合解决方案。

搜索