数据本身并不能产生洞察
在过去几十年里,工业实时数据库在工业系统中扮演了至关重要的角色,它们负责采集并存储时序数据。像 PI System 这样的系统,在从现场设备采集信号,并将其用于可视化和基础分析方面,做得非常出色。
近年来,“工业互联网平台”流行起来,而且数据的可视化相当炫酷。但从本质上看,无论是工业实时数据库,还是工业互联网平台,它们所解决的问题仍然是相同的:数据采集、存储、可视化以及基础分析。名称在变化,但系统的核心能力与边界并没有发生根本性的改变。
这些能力非常重要,但已经不再足够。在今天的工业环境中,用户的期望已经发生了变化,仅仅能够存储和展示数据已经无法满足需求,企业越来越希望系统能够直接生成洞察——检测异常、预测未来趋势、识别模式、解释偏差,甚至完成根因分析。换句话说,目标已经不再只是“看到数据”,而是“理解数据”。
以工业实时数据库为核心的分析能力的局限,为什么分析逐渐外移
无论是传统的工业实时数据库,还是近年来兴起的工业互联网平台,它们在分析能力上的局限,本质上是相同的。这类系统大多围绕数据采集与展示设计,虽然在架构上有所演进,但在分析能力上仍然以规则计算和简单处理为主,并没有真正内生高级分析能力。
虽然很多系统内置了计算引擎和基于规则的处理能力,但这些能力通常范围有限,更适合处理预定义逻辑,而不适合探索式分析、模型驱动分析或 AI 驱动分析。随着工业系统变得越来越复杂,工程师需要的不再只是简单计算,而是能够检测细微异常、预测系统行为、补全缺失数据、分析变量之间的相关性,并构建回归模型或聚类模型。这类分析需要更高的灵活性、持续迭代能力,以及更丰富的算法生态支持。
正是在这样的背景下,以工业实时数据库为核心的分析能力的局限逐渐显现,高级分析也因此开始向系统之外迁移。越来越多的企业开始依赖像 Seeq、TrendMiner 这样的专业工具,来进行基于事件的分析、批次对比、黄金批次分析以及模型驱动的探索型分析。这些工具通过连接器或查询访问数据,而不是复制数据,从而可以复用已有的数据基础设施。
但即使没有数据复制,分离依然存在。分析不再属于核心数据系统的一部分,而是存在于另一个独立的层中,拥有自己的执行环境、逻辑体系和工作流程。工程师在一个系统中定义事件,在另一个系统中分析数据,在第三个系统中管理模型,这种分散带来了明显的系统碎片化问题。逻辑分布在不同系统中,流程难以统一和标准化,而构建在数据之上的“智能”也因此难以复用和规模化。
问题的关键,并不在于数据在哪里,而在于“智能”在哪里。

TDengine 仅需要点击一按钮,就可做批次分析、值搜索、预测、异常检测、缺失数据补齐、相关性、关联、回归、聚类等很多高级分析
从 Python 的灵活性到 SQL 的简洁性
在整个数据与 AI 生态中,Python 已经成为分析与建模的主流语言。它提供了丰富的统计分析、机器学习以及时序分析库,因此像 Seeq 和 TrendMiner 这样的工具也开始支持 Python,使用户能够引入自己的算法,从而突破系统内置能力的限制。
这是一个重要的进步,更重要的是,支持 Python 已经成为一种必然选择。AI 正在以极快的速度发展,每个月都有新的模型和算法出现,没有任何一个厂商可以独立跟上这个节奏。通过支持 Python,系统能够保持开放性,使企业可以持续引入最新技术,而不会被锁定在一套固定能力之中。
但仅有灵活性还不够。当分析通过 Python 脚本实现时,它往往仍然游离在系统之外。脚本需要编写、部署、管理,并嵌入到业务流程中,这使得分析能力虽然强大,但并不“顺手”。它主要服务于少数高级用户,而大多数工程师仍然依赖系统内置功能。
这就形成了能力与可用性之间的鸿沟。要弥合这一鸿沟,分析必须同时具备灵活性与简洁性。
一种有效的方法,是将分析能力以 SQL 函数的形式对外提供。在这种模式下,异常检测、预测、数据补全等高级分析能力可以直接在查询中调用,工程师无需管理脚本或构建复杂流程,而是像访问数据一样使用分析能力。
在系统内部,依然可以使用 Python、机器学习模型或其他先进算法。例如,像 TDengine 这样的系统,可以通过 TDgpt 调度不同类型的模型,包括统计方法、LLM 以及时间序列基础模型,并通过简单的 SQL 接口对外提供结果。这种方式从根本上改变了分析的使用方式,使高级分析真正从“少数人可用”走向“人人可用”。
Python 提供了跟上 AI 发展的开放性,而 SQL 提供了面向规模化使用的简洁性,只有两者结合,高级分析才能真正落地。

TDengine 将复杂的异常检测算法转化为任何人、任何系统都能用的SQL函数anomaly_detection
从原生分析能力到 AI 原生工业数据底座
要真正释放工业数据的价值,分析能力必须成为数据底座的一部分。这意味着,分析不应该运行在系统之外,而应该与数据的存储、查询和使用过程深度融合,系统本身就应该成为分析发生的地方,而不是将数据导出到外部工具中处理。
现代工业数据平台正在朝这个方向演进。例如,像 TDengine 这样的系统,将实时流处理、事件生成以及分析能力直接集成到核心系统中,使数据在写入的同时就可以被处理、分析和增强,从而实现真正的实时分析和过程分析,而无需依赖外部数据管道。
与此同时,分析也不再局限于预定义规则。借助内置的 AI 能力以及具备上下文的数据模型,系统可以基于流式数据自动检测异常、生成洞察并触发事件。这种能力不再依赖人工配置规则,而是能够随着数据持续运行并不断产生价值。
这代表了一种根本性的转变。分析不再是一个独立的层,而是成为数据底座的一部分。当分析成为原生能力时,它可以在实时数据、历史数据、事件流程以及资产模型之间一致地应用,洞察不再需要人工请求,而是可以在系统运行过程中持续产生。
这正是 AI 原生工业数据底座的核心特征:不是在系统之上叠加 AI,而是在底座中内生智能。
结语
工业系统已经从“采集数据”发展到“分析数据”,但在很多环境中,无论是工业实时数据库,还是工业互联网平台,分析仍然被当作系统之外的能力。要迈向未来,分析必须成为数据底座的原生能力,它不应该是附加功能,也不应该是独立工具,而必须成为系统的核心能力之一。
与此同时,原生分析能力并不意味着系统是封闭的。现代工业数据底座必须保持开放,能够与外部工具、自定义模型以及不断演进的新技术进行集成,从而在保证灵活性的同时,实现真正的可用性。
开放性保证系统持续演进,原生能力保证系统真正可用。只有在这两者之间取得平衡,工业数据系统才能在 AI 时代真正释放其价值。

























