哈啰:构建智能出行RAG,ES还是向量数据库?
在2024年的Inclusion·外滩大会上,哈啰集团宣布已经构建了全面的AI布局,以迎接大模型时代的到来。如同一匹黑马,哈啰在智能时代脱颖而出,其服务版图从最初的单车扩张到如今的本地出行及生活服务平台。在技术探索的征途上,哈啰通过构建基于向量数据库的RAG(Retrieval-Augmented Generation)应用,不断强化业务效能。大模型应用,如海螺机器人、交易机器人、光子引擎、贾维斯
在2024年的Inclusion·外滩大会上,哈啰集团宣布已经构建了全面的AI布局,以迎接大模型时代的到来。如同一匹黑马,哈啰在智能时代脱颖而出,其服务版图从最初的单车扩张到如今的本地出行及生活服务平台。
在技术探索的征途上,哈啰通过构建基于向量数据库的RAG(Retrieval-Augmented Generation)应用,不断强化业务效能。大模型应用,如海螺机器人、交易机器人、光子引擎、贾维斯幻视大模型平台等,均已实现落地应用,不仅能够有效提升内部效能和客户体验,也推动了整个行业的数字化转型和智能化升级。
01.RAG:哈啰的抉择
RAG技术,即结合检索(Retrieval)和生成(Generation)的自然语言处理技术,通过检索相关信息来增强语言模型的生成能力,已被哈啰应用于智能客服、内部问答系统等多个领域,用于内容推荐和召回等任务。
在哈啰的技术体系中,向量数据库扮演着日益关键的角色,并在多个业务场景中展现出巨大潜力:
▶ 智能客服平台:提升哈啰服务效率
哈啰的智能客服平台充分地运用了向量数据库技术,赋予AI机器人快速捕捉用户查询意图的能力,并从海量知识库中高效检索出精准信息,以提供即时且准确的反馈。相较于传统关系型数据库,向量数据库在文本处理和语义匹配上具有显著优势,大幅提高了响应速度和准确性。这一平台已广泛应用于哈啰的多个业务场景,包括单车、助力车、顺风车和租车服务,有效地解决了用户在使用过程中遇到的各类问题,例如订单管理、投诉退费、故障报修等。通过智能化服务,不仅极大提升了用户的满意度,还减轻了人工客服的工作量,从而显著提高了整体服务效率。
▶ 海螺机器人:内部提效平台的智能化升级
海螺机器人是哈啰内部效率提升的关键平台,通过整合公司内部各个子系统和业务的文档,并将其存储在高效的向量数据库中,实现了智能信息检索和快速响应。借助强大的向量引擎,海螺机器人能够为每位员工提供精准的智能导航、查询各类相关信息,大幅简化了信息查找过程,提升了工作效率。
▶ 图像比对:智能报障与运维管理
哈啰团队利用向量数据库进行图片相似度计算,快速识别用户提交的报障图片,确保每个报障请求得到精准处理。系统通过比对相似图片,有效防止重复报障,优化风控流程,提升服务响应速度。同时,该技术应用于运维管理中,来验证摆车、擦车等作业的真实性,防止虚假作业,提高运营效率。
▶ 数字人直播:智能问答提升互动体验
在AI数字人直播中,哈啰使用向量数据库匹配用户问题,即时提供准确答案,增强直播互动性和用户体验。数字人主播不仅能实时解答常见问题,还能根据用户需求提供个性化解决方案,使直播更加生动和有趣,提升用户参与感和满意度。
02.选型之旅:从ES到Milvus,再到Zilliz Cloud
哈啰的技术之旅,就像是一场探险,但每一步都在考究而踏实地前进。
2.1 为什么ES还不够?
哈啰最初采用Elastic Search(ES)处理数据,但随着业务的扩展,ES在语义理解和精确召回方面的局限性逐渐暴露。面对这一挑战,哈啰开始寻找更有效的解决方案,在对比了多个产品后,包括向量插件产品、NoSQL数据库和专门的向量数据库,哈啰发现专门的向量数据库更为高效。
-
NoSQL数据库在处理大规模向量数据和复杂的向量检索任务时不如专门的向量数据库高效;
-
向量插件产品虽然使用便捷,但是在性能和优化方面表现无法满足需求, 且对于一个商业化的产品,无法保证业务的稳定性。
此时,向量数据库的优势就显现出来了:向量数据库能够处理高维数据,提供更精确的语义搜索,且性能稳定更符合商业化产品的需求,这对于哈啰的业务需求至关重要。
2.2 为什么是Milvus?
在测评中,Milvus更是以其出色的召回效果和性能赢得了哈啰的青睐:
-
性能优势:Milvus在数据写入和索引构建速度上是ES的近100倍,提供了卓越的查询性能,对于实时性要求高的问答RAG应用而言,性能瓶颈得以突破。
-
社区支持与文档完整性:在选择向量数据库时,社区支持和技术更新是重要考量因素。Milvus作为一个成熟产品,拥有强大的社区支持和持续的技术更新,为哈啰提供了稳定的技术支持。
2.3 混合检索,更高效更精准
ES擅长关键词匹配,可以高效地处理全文检索,而Milvus具备“语义”优化能力,可以对近义词、同义词的内容进行检索,以提升搜索质量。系统对ES和Milvus召回的结果进行合并去重和Reranking之后,返回最终检索结果更精准和高效。
值得一提的是,Milvus 最新发布的2.5版本已经引入了Sparse-BM25算法,使得可以在稀疏向量上执行高效的全文检索,并与密集向量搜索相结合。
2.4 Zilliz Cloud:云上的日子更美好
随着业务的飞速扩展,一次由于ETCD故障引发的宕机事件打破了这种平衡,自建Milvus集群的不足之处亦开始显现:
-
自建Milvus集群的运维成本较高,学习曲线陡峭。当业务流量增加,需要扩充机器资源时,业务部门必须先与运维部门协调排期,这严重影响了业务效率。
-
业务稳定性难以保证。业务部门不仅要关注业务还要关注各种配套设施的维护,这促使业务团队不得不去寻求更稳定的解决方案。
这些挑战最终坚定了哈啰构建Zilliz + Milvus双集群的决心,以进行故障转移、负载均衡和多租户支持的目的,而事实也证明,云上的日子更美好!
▶ 性能更强,运行更稳
Zilliz Cloud自研Cardinal索引算法比云厂商RAG和开源向量数据库产品性能(QPS)提升 10 倍以上;
而在数据管理效率上,Zilliz Cloud的多Partition设计使得哈啰的数据管理更加高效,通过将相似的数据存储在同一个Partition中,哈啰简化了数据管理流程,提高了数据检索的速度;
而且99.95%的SLA保障了业务在迁移完成后不再出现宕机等影响业务的事故。Zilliz Cloud的稳定性使得哈啰的运维团队可以专注于业务开发,而不是基础设施的维护。这大大提高了运维效率,降低了故障率。
▶ 扩缩容更灵活
业务流量的波动促使哈啰需要灵活调整资源。Zilliz Cloud的弹性扩容功能使得哈啰能根据业务需求快速调整资源,增强了业务灵活性。“在Zilliz Cloud上,我们只需调整配置,即可快速扩容,非常方便。”哈啰工程师郑工如是说道,这使得业务在高峰时能迅速扩展资源,在低谷时快速回收,实现资源的最优利用。
▶ 成本效益更明显
迁移至Zilliz Cloud后,扩容和缩容操作变得异常便捷,运维负担大幅减轻,从而实现了多方面的成本控制。
Zilliz Cloud 发布的弹性伸缩功能(Auto-scaling)实现了根据实时用量动态调整集群容量,能够防止因资源不够而导致的禁写,并帮助开发者降低运营成本。
“上云之后,我们做了30%到50%至100% 的切流的过程。切流完成后,我们对整个集群其实就没有关注过”。郑工表示,以前还会经常去看自建集群的那些水位,迁移到云上之后,业务部门就是没有再去关注过具体的指标了。
同时,相比于自建集群,云服务的按需付费模式更加灵活,减少了不必要的资源浪费。
▶ 丝滑的数据迁移
郑工表示采用Zilliz开发的迁移服务使得从Milvus向Zilliz Cloud的整个数迁移过程非常便捷顺畅。据悉,迁移服务专为处理大规模向量数据迁移而设计的高性能操作。目前,Zilliz Cloud 支持从多种外部数据源(如 Milvus、Elasticsearch 和 pgvector)迁移数据,也支持同组织或跨组织间的 Zilliz Cloud 集群迁移,以实现高效的数据集成和管理。
03.迭代自我,加速业务突破
技术不仅是业务突破的引擎,业务需求也是技术迭代的催化剂,这样的良性互动在哈啰的发展历程中持续发酵。向量数据库作为技术革新的重要组成部分,为哈啰在大模型时代的自我进化提供了强大动力,同时也为其在智能出行领域的持续创新和保持技术领先地位提供了坚实保障。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)