首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 187 毫秒
1.
由异常值和缺失值导致的低质量事件日志在实际的业务流程中通常不可避免,低质量的事件日志会降低过程挖掘相关算法的性能,从而干扰决策的正确实施。在系统参考模型未知的条件下,现有方法在进行日志异常检测与修复工作中,存在需要人为设定阈值、不知预测模型学习何种行为约束以及修复结果可解释性较差的问题。采用遮掩策略的预训练语言模型BERT可以通过上下文信息自监督地学习文本中的通用语义,受此启发,提出了模型BERT4Log和弱行为轮廓理论,并结合多层多头注意力机制进行低质量事件日志的可解释修复。所提修复方法不需要预先设定阈值,仅需要进行一次自监督训练,同时该方法利用弱行为轮廓理论量化行为上的日志修复程度,并结合多层多头注意力机制实现对具体预测结果的详细解释。最后,在一组公开数据集上对方法性能进行评估,并与目前性能最优的研究进行对比分析,实验结果表明BERT4Log的修复性能整体优于对比方法,可以学习弱行为轮廓并实现修复结果的详细解释。  相似文献   

2.
预测性业务流程监控(PBPM)是业务流程管理(BPM)中的一个重要研究领域,旨在准确预测未来的行为事件。目前,PBPM研究中广泛引用了深度学习方法,但大多数方法只考虑单一的事件-控制流视角,无法将属性-数据流视角与之结合进行流程预测。针对这一问题,提出了一种基于双层BERT神经网络和融合流程多视角行为分析方法(简称FMP框架)。首先,基于第一层BERT学习属性-数据流信息;接着,基于第二层BERT学习事件-行为控制流信息;最后,通过FMP框架融合数据流和控制流实现多维视角流程预测。在真实的事件日志中的实验结果表明,相比其他研究方法,基于FPM框架预测下一个事件的活动精度更高。这证明融合流程多视角的FMP框架能够更全面、更深层次地分析复杂的流程行为,并提高预测的性能。  相似文献   

3.
肖锐  刘明义  涂志莹  王忠杰 《计算机应用》2022,42(11):3513-3519
用户的社交媒体中蕴含着他们过去的个人经历和潜在的生活规律,研究其规律对预测用户未来的行为以及对用户进行个性化推荐有很大的价值。通过收集微博数据,定义了11种类型的事件,并提出了一个三阶段的Pipeline的系统,利用BERT预训练模型,分别在三个阶段使用BERT+BiLSTM+Attention、BERT+FullConnect、BERT+BiLSTM+CRF方法进行个人事件检测。从微博文本中抽取出该文本是否包含定义的事件、包含的事件类型、每种事件包含的元素等信息,具体元素为Subject(事件主语)、Object(事件元素)、Time(事件发生时间)、Place(事件发生的地点)和Tense(事件发生的时态),从而探究用户个人时间轴上的事件变化规律来预测个人事件。在收集的真实用户微博数据集上进行实验,并与逻辑回归、朴素贝叶斯、随机森林、决策树等分类算法进行对比分析。实验结果表明,三个阶段中的BERT+BiLSTM+Attention、BERT+FullConnect和BERT+BiLSTM+CRF方法均取得了最高的F1值,验证了所提方法的有效性。最后根据所提方法抽取出的事件和其中的时间信息可视化地构建了用户的个人事件时间轴。  相似文献   

4.
由于日志解析准确率不高以及标记样本不足降低了异常检测的准确率,所以提出了一种新的基于日志的半监督异常检测方法。首先,通过改进字典的日志解析方法,保留了日志事件中的部分参数信息,从而提高日志信息的利用率和日志解析的准确率;然后,使用BERT对模板中的语义信息进行编码,获得日志的语义向量;接着采用聚类的方法进行标签估计,缓解了数据标注不足的问题,有效提高了模型对不稳定数据的检测;最后,使用带有残差块的双向时间卷积网络(Bi-TCN)从两个方向捕获上下文信息,提高了异常检测的精度和效率。为了评估该方法的性能,在两个数据集上进行了评估,最终实验结果表明,该方法与最新的三个基准模型LogBERT、PLELog和LogEncoder相比,F1值平均提高了7%、14.1%和8.04%,能够高效精准地进行日志解析和日志异常检测。  相似文献   

5.
事件检测是自然语言处理领域中事件抽取的主要任务之一,它旨在从众多非结构化信息中自动提取出结构化的关键信息.现有的方法存在特征提取不全面、特征分布不均等情况.为了提高事件检测的准确率,提出了一种融合BERT预训练模型与多尺度CNN的神经网络模型(BMCC,BERT+Multi-scale CNN+CRF).首先通过BERT(Bidirectional Encoder Representations from Transformers)预训练模型来进行词向量的嵌入,并利用其双向训练的Transformer机制来提取序列的状态特征;其次使用不同尺度的卷积核在多个卷积通道中进行卷积训练,以此来提取不同视野的语义信息,丰富其语义表征.最后将BIO机制融入到条件随机场(CRF)来对序列进行标注,实现事件的检测.实验结果表明,所提出的模型在MAVEN数据集上的F1值为65.17%,表现了该模型的良好性能.  相似文献   

6.
预测性过程监控依赖于预测效果,针对如何增强预测性过程监控预测效果的问题,提出了一种基于行为轮廓矩阵增强的业务流程结果预测方法。首先,通过分析活动间的行为关系提取行为轮廓矩阵,并将其与事件序列一同输入到模型中。随后,结合卷积神经网络(CNN)和长短期记忆网络(LSTM)分别学习矩阵图像特征和序列特征。最后,引入注意力机制以整合图像特征和序列特征进行预测。通过真实事件日志进行验证,在预测事件日志结果方面,提出的增强方法对比基准的LSTM预测方法提高了预测效果,验证了方法的可行性。该方法结合行为轮廓矩阵增强了预测模型对事件日志中行为之间关系的理解,进而提升了预测效果。  相似文献   

7.
目前,流程模型可以从大量的事件日志中挖掘出来,以重放大多数的日志.但是,少数偏离流程模型的日志亦是有效的,为了使事件日志与流程模型更加拟合,模型修复是一个很好的方法.提出了基于Petri网的并发事件流程模型修复分析方法.首先,找到事件日志与流程模型的最优对齐,筛选出用于修复的并发事件;其次,利用提出的重构子流程的修复方法,对筛选得到的并发事件进行重构;最后,根据算法嵌入到原始模型中以实现模型修复,并通过一个具体实例说明了该方法的合理有效性.修复后的模型可以完全重放给定的事件日志,并且能够避免因循环造成的多余行为的发生,同时也在最大程度上保留了原始模型的使用价值.  相似文献   

8.
隐变迁是指存在于事件日志中的不频繁行为,从流程模型中挖掘出隐变迁,提高流程运行效率和服务质量显得尤为重要。已有的方法大部分基于业务流程序列进行分析,但很少考虑跨序列间的关系,因此对挖掘业务流程隐变迁有一定的影响。提出流程树切挖掘业务流程隐变迁的方法,首先根据发生频数较高的日志序列得到初始模型,再根据流程树切预处理事件日志,把日志活动关系与初始模型关系进行对比,找到存在变化的区域,挖掘可能存在的隐变迁,通过评价指标判定带隐变迁的模型是最优模型,最后实例分析验证该方法的有效性。  相似文献   

9.
现实中的业务流程不断发生变化,需要对初始的业务流程模型进行修复以更好地表示实际业务流程。模型修复的关键步骤是分析现实日志和模型间的偏差,目前寻找偏差的方法主要采用对齐重演技术,未从行为的角度定量分析抽象的结构。因此,提出了一种通过行为轮廓分析日志和模型偏差的方法,并在此基础上进一步给出了基于逻辑Petri网的模型修复方法。首先,基于行为轮廓计算日志和模型间的服从度以识别偏差迹;然后,在偏差迹中依据偏差三元组集从偏差活动中选择逻辑变迁;最后,基于逻辑变迁设置逻辑函数,并通过添加新的分支或重构新的结构来修复原模型。对修复模型的适应度和精确度进行了验证,仿真实验结果表明,在尽可能保持修复模型与原始模型相似的基础上,相较于Fahland方法与Goldratt方法,所提修复方法在适应度都为1的情况下,得到的修复模型具有更高的精确度。  相似文献   

10.
业务流程优化分析是业务流程管理的重要内容之一,存在配置信息的优化分析显得尤为重要。已有研究主要集中于业务流程优化分析,但对于存在配置信息的业务流程优化则存在不足。对业务流程配置优化分析进行了研究,提出了日志与业务流程Petri网模型的紧密度计算方法 以及基于行为紧密度的业务流程配置优化分析方法。首先根据给定事件日志的执行序列及实例数建立初始模型,计算初始模型与剩余日志的紧密度,利用紧密度大的日志优化初始模型;然后引进配置变迁对初步优化后的模型进行进一步优化;最后通过一个简单的实例说明了该方法的可行性。  相似文献   

11.
在业务过程发现的一致性检测中,现有事件日志与过程模型的多视角对齐方法一次只能获得一条迹与过程模型的最优对齐;并且最优对齐求解中的启发函数计算复杂,以致最优对齐的计算效率较低。为此,提出一种基于迹最小编辑距离的、事件日志的批量迹与过程模型的多视角对齐方法。首先选取事件日志中的多条迹组成批量迹,使用过程挖掘算法得到批量迹的日志模型;进而获取日志模型与过程模型的乘积模型及其变迁系统,即为批量迹的搜索空间;然后设计基于Petri网变迁序列集合与剩余迹的最小编辑距离的启发函数来加快A*算法;最后设计可调节数据和资源视角所占权重的多视角代价函数,在乘积模型的变迁系统上提出批量迹中每条迹与过程模型的多视角最优对齐方法。仿真实验结果表明,相比已有工作,在计算批量迹与过程模型间的多视角对齐时,所提方法占用更少的内存空间和使用更少的运行时间。该方法提高了最优对齐的启发函数计算速度,可以一次获得批量迹的所有最优对齐,进而提高了事件日志与过程模型的多视角对齐效率。  相似文献   

12.
过程挖掘可以根据企业信息系统生成的事件日志建立业务过程模型。当实际业务过程发生变化时,过程模型与事件日志之间会产生偏差,这时需要对过程模型进行修正。对于含有并行结构的过程模型修复,由于加入自环和不可见变迁等因素,有些现有的修正方法的精度会降低。因此提出一种基于逻辑Petri网和托肯重演的并行结构过程模型修复方法。首先根据子模型的输入输出库所与日志的关系,确定子模型的插入位置;然后通过托肯重演的方式确定偏差所在位置;最后根据基于逻辑Petri网提出的方法进行过程模型的修复。在ProM平台上进行了仿真实验,验证了该方法的正确性和有效性,并与Fahland等方法进行对比分析。结果表明,所提方法的精度达到85%左右,相比Fahland、Goldratt方法分别提高了17和11个百分点;在简洁度方面该算法没有增加自环和不可见变迁,而Fahland和Goldratt方法均增加了不可见变迁和自环;三种方法的拟合度均在0.9以上,而Goldratt方法略低一些。以上证明用所提方法修正后的模型具有更高的拟合度和精度。  相似文献   

13.
Process mining can be seen as the “missing link” between data mining and business process management. The lion's share of process mining research has been devoted to the discovery of procedural process models from event logs. However, often there are predefined constraints that (partially) describe the normative or expected process, e.g., “activity A should be followed by B” or “activities A and B should never be both executed”. A collection of such constraints is called a declarative process model. Although it is possible to discover such models based on event data, this paper focuses on aligning event logs and predefined declarative process models. Discrepancies between log and model are mediated such that observed log traces are related to paths in the model. The resulting alignments provide sophisticated diagnostics that pinpoint where deviations occur and how severe they are. Moreover, selected parts of the declarative process model can be used to clean and repair the event log before applying other process mining techniques. Our alignment-based approach for preprocessing and conformance checking using declarative process models has been implemented in ProM and has been evaluated using both synthetic logs and real-life logs from a Dutch hospital.  相似文献   

14.
With organisations facing significant challenges to remain competitive, Business Process Improvement (BPI) initiatives are often conducted to improve the efficiency and effectiveness of their business processes, focussing on time, cost, and quality improvements. Event logs which contain a detailed record of business operations over a certain time period, recorded by an organisation's information systems, are the first step towards initiating evidence-based BPI activities. Given an (original) event log as a starting point, an approach to explore better ways to execute a business process was developed, resulting in an improved (perturbed) event log. Identifying the differences between the original event log and the perturbed event log can provide valuable insights, helping organisations to improve their processes. However, there is a lack of automated techniques and appropriate visualisations to detect the differences between two event logs. Therefore, this research aims to develop visualisation techniques to provide targeted analysis of resource reallocation and activity rescheduling. The differences between two event logs are first identified. The changes between the two event logs are conceptualised and realised with a number of visualisations. With the proposed visualisations, analysts are able to identify resource- and time-related changes that resulted in a cost reduction, and subsequently investigate and translate them into actionable items for BPI in practice. Ultimately, analysts can make use of this comparative information to initiate evidence-based BPI activities.  相似文献   

15.
Process mining techniques relate observed behavior (i.e., event logs) to modeled behavior (e.g., a BPMN model or a Petri net). Process models can be discovered from event logs and conformance checking techniques can be used to detect and diagnose differences between observed and modeled behavior. Existing process mining techniques can only uncover these differences, but the actual repair of the model is left to the user and is not supported. In this paper we investigate the problem of repairing a process model w.r.t. a log such that the resulting model can replay the log (i.e., conforms to it) and is as similar as possible to the original model. To solve the problem, we use an existing conformance checker that aligns the runs of the given process model to the traces in the log. Based on this information, we decompose the log into several sublogs of non-fitting subtraces. For each sublog, either a loop is discovered that can replay the sublog or a subprocess is derived that is then added to the original model at the appropriate location. The approach is implemented in the process mining toolkit ProM and has been validated on logs and models from several Dutch municipalities.  相似文献   

16.
An automated process discovery technique generates a process model from an event log recording the execution of a business process. For it to be useful, the generated process model should be as simple as possible, while accurately capturing the behavior recorded in, and implied by, the event log. Most existing automated process discovery techniques generate flat process models. When confronted to large event logs, these approaches lead to overly complex or inaccurate process models. An alternative is to apply a divide-and-conquer approach by decomposing the process into stages and discovering one model per stage. It turns out, however, that existing divide-and-conquer process discovery approaches often produce less accurate models than flat discovery techniques, when applied to real-life event logs. This article proposes an automated method to identify business process stages from an event log and an automated technique to discover process models based on a given stage-based process decomposition. An experimental evaluation shows that: (i) relative to existing automated process decomposition methods in the field of process mining, the proposed method leads to stage-based decompositions that are closer to decompositions derived by human experts; and (ii) the proposed stage-based process discovery technique outperforms existing flat and divide-and-conquer discovery techniques with respect to well-accepted measures of accuracy and achieves comparable results in terms of model complexity.  相似文献   

17.
当处理高度可变的流程时,已有的自动过程挖掘技术产生的模型可能并不能真实反映流程运行中不同决策点之间规则的变化情况。从声明性过程挖掘的角度出发,提出了一种具备可视化规则的决策表Petri网挖掘方法,实现真实日志到声明性过程决策表Petri网模型的映射。首先,形式化了决策表Petri网模型及其携带的规则分析决策表,并对模型的静态语义和动态语义进行定义;其次,通过扩展属性的添加,分析流程内部属性和事件属性是否会对决策产生影响,并通过规则分析决策表的异常值属性,判断规则的异常程度;最后,在一组人工日志和真实事件日志的基础上进行实验仿真,并与数据Petri网的挖掘技术进行分析对比。实验结果表明所提方法在反映流程运行中规则的变化情况具有一定优势,并为数据流异常检测提供数值可解释性;同时,所设计的决策表Petri网挖掘方法可以将决策信息与模型结构整合在一起,为过程模型的可变性建模提供形式化基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号