LangGrant推出LEDGE MCP服务器,赋能企业数据库启用代理式AI

Source: InfoQ - AI & LLM

LangGrant推出了LEDGE MCP服务器,这是一个新的企业平台,旨在让大语言模型在复杂的数据库环境中进行推理,而无需直接访问或暴露底层数据。该版本旨在消除组织在将代理式AI应用于受受控生产数据时面临的一些最大障碍,即安全限制、失控的token成本和不可靠的分析结果。

该公司表示,LEDGE MCP服务器允许LLM跨OracleSQL ServerPostgresSnowflake,等数据库生成准确、可执行的多步骤分析计划,同时将数据完全保留在企业边界内。通过依赖模式、元数据和关系而不是原始记录,该平台消除了将大型数据集推送到LLM的需要,从而大大减少了token的使用并防止敏感数据泄漏。根据LangGrant的说法,通常需要数周手工编写查询和验证的任务现在可以在几分钟内完成,并具有完全的人工审查和可审计性。

LangGrant首席执行官、首席技术官兼联合创始人Ramesh Parameswaran表示:“LEDGE MCP服务器消除了LLM和企业数据之间的摩擦。”他指出,企业现在可以安全、经济地将代理式AI直接应用于现有的数据库生态系统,而不会损害治理或监督。

在许多组织中,上下文工程和代理式AI正从实验阶段进入生产环境。许多企业已经接受了AI助手,但在操作数据库方面却停滞不前。安全策略通常禁止直接访问LLM,在分析原始数据时token和计算成本会激增,开发人员和业务用户都在努力应对企业模式的规模和复杂性。即使使用AI辅助编码工具,工程师也经常花费数周时间手动将部分上下文输入模型,以生成可用的查询和管道。

LangGrant将LEDGE定位为一个全面解决这些问题的编排和治理层。MCP服务器管理LLM如何与企业数据交互,确保符合访问控制和策略。分析和推理使用数据库上下文而不是数据有效负载来执行,以降低成本并减少幻觉风险。该平台还可以自动创建可由人工团队检查、批准和执行的多阶段分析计划。

此外,LEDGE支持按需克隆和容器化类似生产的数据库,为智能体开发人员提供安全、隔离的环境来构建和测试AI工作流。通过跨异构系统自动映射模式和关系,该平台使LLM能够跨多个数据库进行推理,而无需读取底层数据本身。

有了LEDGE MCP服务器,LangGrant认为企业对AI的采用将更少地依赖于更大的模型,而更多地依赖于安全的编排、治理和成本控制。该公司认为,通过保持数据原位,同时为LLM提供全面的上下文理解,企业最终可以准确、安全、大规模地将AI应用于其最有价值的数据资产。

许多公司正在采用MCP风格的服务器,在不暴露原始数据的情况下为AI智能体提供安全、结构化的环境,但它们的重点领域有所不同。 GitHub的MCP服务器以开发人员的工作流程为中心,允许LLM在执行访问控制的同时对存储库、问题、拉取请求和CI元数据进行推理。同样,微软的Azure DevOps MCP向AI智能体公开结构化项目和管道上下文,以支持规划、故障排除和交付自动化,而不是深度分析数据处理。

除了开发者平台,MCP概念也出现在基础设施和运营中。Linkerd等服务网格项目正在探索MCP集成,为AI智能体提供对服务流量、遥测和策略执行的安全可见性。云提供商还通过他们的AI服务(如AWS谷歌云)提供类似MCP的上下文层,这些服务允许智能体查询基础设施元数据和操作信号,而无需将敏感数据直接传递给模型。这些方法侧重于操作意识,而不是数据分析。

与这些产品相比,LangGrant的LEDGE MCP服务器以专注于企业数据库和分析而脱颖而出。总之,这些平台显示了MCP如何成为一种基础模式,每个实现都针对企业堆栈的特定层进行了定制。

原文链接:

https://www.infoq.com/news/2026/01/langgrant-ledge-mcp-server/