概要说明
- BladeX 大模型平台是一款企业级的人工智能方案,涵盖大模型管理、智能体编排、知识库构建、向量化检索、MCP调用、多模态等核心功能。
- 平台经过精心设计与开发,提供了完整的AI模型接入、智能对话、知识问答和工作流自动化支持。支持多种主流大模型的无缝集成。
- 同时提供丰富的API服务支持,支持标准化API将AI能力集成至业务系统,实现智能化应用的快速构建与部署。
手册介绍
- 操作手册主要为大家讲解使用BladeX AI平台从0构建一个完整的智能化应用开发流程。
- 在阅读本手册之前,请先阅读技术手册,了解BladeX AI平台的基础架构与核心功能。
AI平台基础概念
BladeX AI平台通过模块化的架构设计和智能化的服务编排,提供了对海量AI模型的统一管理和智能应用的快速构建。平台的核心结构由大模型、智能体、知识库和向量化引擎组成,并通过多种AI技术实现智能化业务场景的落地应用。
一、大模型管理
模型类型:平台支持多种类型的AI模型管理,包括对话模型(Chat Models)、嵌入模型(Embedding Models)、图像模型(Image Models)等。每种模型类型都有其特定的应用场景和能力边界。例如,GPT-4用于复杂推理和对话,text-embedding-ada-002用于文本向量化,DALL-E用于图像生成等。
模型配置:模型配置是大模型接入平台的标准化定义,包含模型的基础信息、API配置、性能参数等。例如,在接入OpenAI GPT-4时,需要配置API Key、Base URL、模型名称、最大Token数、温度参数等。模型配置为AI服务提供了统一的管理和调用接口。
模型实例:模型实例是模型配置的具体运行时对象,负责处理实际的AI推理请求。每个模型实例都具有独立的会话管理、负载均衡和监控能力。通过模型实例的动态管理,平台可以实现AI服务的高可用和弹性扩展。
二、智能体编排
智能体的定义:智能体(Agent)是平台中的核心概念,它是一个具备特定能力和知识的AI实体,能够理解用户意图、执行复杂任务、调用外部工具。智能体通过工作流编排的方式,将多个AI能力组合成完整的业务解决方案。
节点组件:智能体的工作流由多种节点组件构成,包括开始节点、LLM节点、知识库节点、条件判断节点、工具调用节点等。每个节点都有特定的功能和配置参数。例如,LLM节点负责调用大模型进行推理,知识库节点负责检索相关知识,工具节点负责调用外部API或服务。
工作流编排:通过可视化的工作流编排,用户可以定义智能体的执行逻辑和数据流转。智能体根据输入条件选择不同的执行路径,实现复杂业务场景的自动化处理。例如,客服智能体可以先检索知识库获取答案,如果找不到相关信息则转人工处理。
上下文管理:智能体具备完整的上下文管理能力,能够在多轮对话中保持状态连续性,支持复杂的多步骤任务执行。通过变量传递和状态管理,智能体可以在不同节点间共享数据和执行结果。
三、知识库体系
知识库的定义:知识库是平台的核心知识管理组件,用于存储、组织和检索企业的结构化和非结构化知识。知识库支持多种文档格式,包括PDF、Word、Excel、Markdown等,并提供智能化的内容分析和处理能力。
文档处理引擎:知识库具备强大的文档处理能力,支持多格式文档的自动解析、内容提取和结构化处理。处理引擎可以识别文档的章节结构、表格数据、图片信息等,并将其转换为标准化的知识片段。
分段策略:知识库提供多种智能分段策略,包括语义分段、固定长度分段、结构化分段等。分段策略的选择直接影响知识检索的精度和效果。平台支持自定义分段策略,以适应不同类型文档的特点。
知识检索:通过向量化技术和语义检索,知识库能够快速准确地找到与用户查询相关的知识片段。检索结果按相似度排序,并提供完整的上下文信息和引用来源,确保知识的可追溯性。
四、向量化技术
向量化引擎:向量化引擎是平台的核心技术组件,负责将文本、图像等非结构化数据转换为高维向量表示。向量化使得不同类型的数据可以在统一的数学空间中进行相似度计算和检索。
嵌入模型:平台支持多种主流的嵌入模型,如OpenAI text-embedding-ada-002、百度文心、阿里通义等。不同的嵌入模型具有不同的向量维度和语义理解能力,用户可以根据业务需求选择最适合的模型。
向量数据库:平台集成了多种向量数据库,包括Milvus、Qdrant、Redis Vector、PGVector等。向量数据库提供高性能的向量存储、索引和检索能力,支持大规模向量数据的实时查询。
相似度检索:通过余弦相似度、欧氏距离等算法,向量化引擎可以快速找到与查询向量最相似的内容。检索结果包含相似度分数和元数据信息,为智能应用提供精确的知识匹配。
五、MCP协议集成
MCP协议介绍:Model Context Protocol(MCP)是一种开放标准协议,用于AI应用程序与外部数据源和工具的安全连接。通过MCP协议,大模型可以安全地访问本地和远程资源,如文件系统、数据库、API服务等,大大扩展了AI应用的能力边界。
MCP服务器管理:平台支持MCP服务器的统一管理和配置,包括服务器注册、连接管理、权限控制等。用户可以轻松配置多个MCP服务器,为不同的业务场景提供专门的数据和工具支持。例如,配置文件系统MCP服务器用于文档处理,配置数据库MCP服务器用于数据查询。
工具和资源调用:通过MCP协议,智能体可以调用外部工具和访问资源,如文件读写、数据库查询、API调用、系统命令执行等。这些能力通过标准化的接口暴露给大模型,使AI应用能够与现有系统深度集成。
安全和权限控制:MCP协议提供了完善的安全机制,包括身份验证、权限控制、资源隔离等。平台确保AI应用只能访问被明确授权的资源,保障企业数据和系统的安全性。
实时通信机制:MCP支持双向实时通信,允许服务器主动向客户端推送数据更新、事件通知等。这使得AI应用能够响应实时数据变化,提供更加动态和交互式的用户体验。
六、多模态AI服务
文本生成:基于大语言模型的文本生成服务,支持对话、摘要、翻译、创作等多种文本处理任务。服务提供灵活的提示词工程和参数调优能力,满足不同场景的文本生成需求。
图像理解:集成视觉大模型,提供图像识别、图像描述、视觉问答等能力。支持图片上传、URL输入等多种方式,为多模态应用提供强大的视觉理解支持。
语音交互:提供语音转文本(ASR)和文本转语音(TTS)服务,支持多语言、多方言的语音识别和合成。语音服务与对话模型深度集成,实现自然的语音交互体验。
七、整体运转流程
智能对话:用户发起对话请求后,平台首先进行意图识别和上下文理解,然后根据智能体配置选择合适的处理路径。如果需要知识支持,系统会自动检索相关知识库内容,结合大模型进行推理生成回答。
知识问答:用户提出问题时,系统将问题向量化并在知识库中进行语义检索,找到最相关的知识片段。然后将检索结果与问题一起输入大模型,生成准确、有依据的答案,并标明知识来源。
MCP工具调用:当智能体需要执行特定任务时,系统通过MCP协议调用相应的外部工具和资源。例如,当用户询问某个文件内容时,智能体会通过MCP文件系统服务器读取文件;当需要查询数据时,智能体会通过MCP数据库服务器执行SQL查询。整个过程安全可控,所有操作都在权限范围内执行。
工作流自动化:通过智能体编排,平台可以自动化处理复杂的业务流程。例如,文档分析智能体可以自动读取上传的合同文档,提取关键信息,生成风险评估报告,并发送给相关人员审核。
API服务集成:平台提供完整的RESTful API和WebSocket接口,支持实时对话、批量处理、文件上传等多种集成方式。开发者可以轻松将AI能力集成到现有系统中,实现智能化升级。