暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

快速上手,openGemini + MCP + LLM,搭建时序数据分析AI 应用

openGemini 2025-05-19
250

 

MCP 起源于 2024 年 11 月 25 日 Anthropic 发布的文章:Introducing the Model Context Protocol。MCP (Model Context Protocol,模型上下文协议)定义了应用程序和 AI 模型之间交换上下文信息的方式。这使得开发者能够以一致的方式将各种数据源、工具和功能连接到 AI 模型(一个中间协议层),就像 USB-C 让不同设备能够通过相同的接口连接一样。MCP 的目标是创建一个通用标准,使 AI 应用程序的开发和集成变得更加简单和统一。

目前,openGemini 已实现 MCP 协议的对接,能够与各类 MCP 客户端(如 Claude Desktop、cherry studio、Cline 等)共同使用。用户可以基于 openGemini的私有化部署环境使用,还可以支持openGmeini云数据库上使用。结合 LLM 帮助企业时序数据分析变得更加简单与高效,简化 AI 应用技术栈。

openGemini MCP Server代码仓:https://github.com/openGemini/openGemini-mcp-server

openGemini + MCP + LLM 快速搭建AI时序数据分析应用

假设在openGemini中有一个数据表,借助 MCP 协议,LLM 能够生成针对该数据集的 SQL(openGemini的查询语言是InfluxQL) 查询,并直接在 openGemini 中执行,返回实时的结果。这些数据可以进一步用于生成图表和报告,最终为用户提供准确的业务洞察。

这里是一个交互的例子:

在这一过程中,MCP 协议不仅让 LLM 能够与openGemini 数据库实现无缝对接,还使得数据访问更加灵活和实时,为用户提供了一个集成化的分析平台。这种技术的进步使得复杂的查询、数据分析和智能决策变得更加高效与直观。

体验MCP与openGemini的集成

  1. 安装openGemini mcp server

    > git clone https://github.com/openGemini/openGemini-mcp-server.git
    > cd openGemini-mcp-server
    > pip install .
  2. 配置cherry studio的MCP服务器

    命令:填写python程序路径

    参数:-m openGemini_mcp_server.server

    环境变量:如果openGemini使用127.0.0.1监听地址和8086端口,则可以不配置。否则需要配置:OPENGEMINI_HOST=your_ip,OPENGEMINI_PORT=port

  3. 互动

结束

MCP 作为标准化协议,使 LLM 具备了与外部数据交互的能力。openGemini-mcp-server作为openGemini的“智能引擎”,打通了时序数据与AI模型之间的协作链路,让传统监控系统具备上下文感知与自适应决策能力。如果您想深入了解其实现细节,可以参与社区技术讨论!

参考链接:https://zhuanlan.zhihu.com/p/27327515233

  

最后修改时间:2025-05-19 15:01:51
「喜欢这篇文章,您的关注和赞赏是给作者最好的鼓励」
关注作者
【版权声明】本文为墨天轮用户原创内容,转载时必须标注文章的来源(墨天轮),文章链接,文章作者等基本信息,否则作者和墨天轮有权追究责任。如果您发现墨天轮中有涉嫌抄袭或者侵权的内容,欢迎发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论