为什么仅有时序数据还不够:AI时代的工业事件分析重构

数据告诉你发生了变化,但没有告诉你发生了什么

工业系统持续不断地产生时间序列数据。每一秒钟,传感器都在记录温度、压力、流量、振动等各种信号。在过去几十年里,这一直是工业数据系统的基础:采集信号,高效存储,并通过可视化观察它们随时间的变化。

这种方式是有效的,但它存在一个根本性的局限。

时间序列数据只能告诉我们“发生了变化”,却无法告诉我们“发生了什么”。

趋势图上可能会看到一次压力突升,但它无法解释这次变化发生在开机阶段、稳定运行阶段,还是异常工况下。温度的下降也许是正常调节,也可能是故障的早期信号。如果缺乏上下文,不同工程师面对同一段数据,可能会得出完全不同的判断。

这就是数据与理解之间的鸿沟。

工程师并不是按“时序数据”来思考问题的,也不仅仅是按“趋势”来思考。他们更习惯按“事件”来理解系统:开机、停机、批次运行、工况切换、异常发生。这些才是工业运行的基本单位,也是最有意义的分析对象。

从时序数据到事件:工业实时数据库做对了什么,而现代数据平台忽略了什么

数据与理解之间的鸿沟并不是最近才出现的问题,也不是因为行业没有意识到这个问题。事实上,工业数据领域早就给出了一个非常重要的答案。

PI System 提出了 Event Frame 的概念,从根本上改变了工程师使用时间序列数据的方式。它不再把数据视为无穷无尽的数值流,而是允许工程师定义有明确起止时间的“有意义区间”,例如开机、停机、批次运行或异常状态,并将这些事件与设备、属性以及上下文关联起来。

这是一个非常重要的进步。它承认工业运行并不是连续信号的简单叠加,而是由一系列具有明确意义的事件构成。它让数据模型开始贴近工程师的思维方式,也让工程师能够从“看数据”转向“理解运行过程”。对于很多用户来说,Event Frame 是 PI System 中最有价值的能力之一。

从这个角度看,以 PI 为代表的工业实时数据库,并没有忽视这个问题,反而在很早期就给出了一个非常正确的建模方向。但真正值得思考的是接下来发生的事情。

随着行业向现代数据基础设施演进,像 Snowflake、Databricks 这样的系统在存储、计算和扩展性方面取得了巨大突破。它们可以处理海量数据,支持复杂分析,并与现代数据生态系统高度集成。

但在这个过程中,一个关键能力被忽略了。

这些系统的核心抽象仍然是表、文件以及通用的数据处理模型,它们并没有提供类似 Event Frame 的原生概念。系统中并不存在“开机”“批次”“异常”这样的第一类实体,工程师只能通过 SQL、数据管道或自定义逻辑去重建这些语义。

这就带来了一个明显的错位。

基础设施变得更强大了,但数据在操作层面的可理解性却下降了。数据更容易被存储和计算,但更难回答工程师真正关心的问题:发生了什么?从什么时候开始?与其他类似情况相比如何?

因此,即便拥有强大且可扩展的基础设施,真正以事件为核心的分析仍然很难实现。问题不在于计算能力,而在于缺乏一个以操作语义为核心的数据模型。

为什么仅有时序数据还不够:AI时代的工业事件分析重构 - TDengine Database 时序数据库

Visualize and compare multiple events by a simple click in TDengine

事件建模与事件分析之间的鸿沟

尽管 Event Frame 是一个非常强大的概念,但它在实际系统中的落地方式,也暴露出了一些局限性。

在 PI System 中,Event Frame 是在 Asset Framework 中定义和管理的,它可以将事件与设备、时间区间以及相关属性关联起来,为工业操作行为提供了结构化的建模方式。这一能力非常重要,它使工程师可以明确地定义出诸如批次、开停机过程或异常工况等关键运行阶段。

然而,当真正进入“分析”环节时,情况就开始变得分散。

在大多数情况下,工程师需要通过 PI Vision 等工具,在选定的时间窗口内查看数据变化。这种方式适用于基础的排查和可视化,但对于更深层次的事件分析来说,能力是有限的。

在实际工业场景中,很多关键分析本质上都是围绕“事件”展开的。以批次生产为例,工程师往往需要对多个批次进行对比,去理解什么是“好的运行状态”。他们会将不同批次按开始时间对齐,生成所谓的“黄金曲线(golden profile)”,然后分析某一个异常批次在各个阶段是如何偏离这一基准的。这类分析对于质量优化、根因定位以及工艺改进至关重要。

Event Frame 让这些批次可以被清晰地定义和组织起来,但真正的分析过程——包括时间对齐、归一化处理、统计对比以及模式识别——却并没有在核心系统中得到深入支持。因此,很多企业不得不引入 Seeq、TrendMiner 等专门的分析工具,来完成这些以事件为中心的分析任务。

这实际上揭示了一个非常关键的架构问题。

事件建模是存在的,但事件分析并没有与之深度融合。事件被定义出来了,但并没有成为分析的核心单位。工程师在从事件中提取洞察时,往往需要跨多个系统、搬运数据,并在不同工具之间重复构建分析逻辑。

如果事件是工业运行的基本单位,那么它也应该成为分析的基本单位。

从资产结构到运行行为

在上一篇关于“以资产为核心的数据建模”的讨论中,我们关注的是结构——数据如何围绕设备和系统进行组织,这解决了“系统是什么”的问题。

而事件建模,则是在此基础上引入“行为”。

如果说资产描述的是系统本身,那么事件描述的是系统在时间维度上的运行过程。开机过程、批次运行、异常状态,这些都不是静态结构能够表达的内容,而是运行行为的体现。

两者结合,才能构成对工业系统更完整的表达。

以资产为核心的建模定义结构。

以事件为核心的建模定义行为。

如果没有事件,数据只是连续的数值流,仍然需要人工去解释。而有了事件,系统本身就开始具备表达运行过程的能力。

为什么仅有时序数据还不够:AI时代的工业事件分析重构 - TDengine Database 时序数据库

Align the start time and even normalize the event duration for different events in TDengine

为什么在 AI 时代,事件变得更加重要

在 AI 时代,事件的重要性被进一步放大。

很多 AI 应用直接作用于时间序列数据,但这种方式存在天然局限。原始信号缺乏清晰的边界,也缺乏上下文信息。如果不知道数据所处的运行状态,很难正确理解其中的模式。

事件为 AI 提供了一种天然的结构。

它将数据切分为有意义的单元,使得系统可以对相似事件进行对比、按事件起点对齐数据、分析正常与异常之间的差异。更重要的是,它为 AI 提供了理解数据所必需的上下文。

一个 AI 模型,如果不知道设备是在开机、停机还是稳定运行状态,仅仅分析振动数据,很容易得出错误结论。而如果在清晰定义的事件范围内进行分析,就能够显著提高结果的准确性与可解释性。

没有事件,AI 看到的是数据,有了事件,AI 才能理解行为。

走向以事件为核心的工业数据底座

要真正释放工业数据的价值,事件必须成为数据底座的一部分,而不是附加在上层的功能。

这意味着事件的定义、存储和分析,不应该分散在不同系统之中,而应该与时间序列数据和资产模型一起,构成统一的数据基础。

PI System 提出的 Event Frame,是一个非常重要的起点。但在 AI 时代,这一能力需要被进一步提升,从“重要功能”变为“基础能力”。

事件不再只是分析的一种方式,而是构建智能系统所必需的组成部分。

时序数据描述变化,资产描述结构,事件描述行为。

三者结合,才能真正理解工业运行,也才能支撑下一代以 AI 为驱动的工业系统。