首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 93 毫秒
1.
试验评估系统中,快速完成数据统计是关键。试验设备运行源源不断产生的数据,以及试验评估数据库中存在日积月累的大量数据,给数据统计带来了极大的困难。传统数据统计方法以人为操作为触发,需要一次性遍历所需的所有数据,完成统计特征值的计算。该方法容易造成计算速度缓慢、计算资源不足等现象。文章研究并实现了一种快速实时数据统计的方法,提高了试验评估数据库千万条及以上量级数据统计特征值的计算效率,且占用资源少,模块运行可靠、稳定,同时能够灵活适应不同装备指标数据的统计分析处理。  相似文献   

2.
在传统企业应用中,开发人员要根据不同的业务需求开发对应的数据统计模块,这样的"预定义"数据统计方法很难满足不同用户对统计数据的个性化需求.为了简化数据统计模块的开发流程,同时满足不同用户的数据需求,提出了面向最终用户的可定制数据统计服务解决方案.本文着重介绍了面向用户的元数据模型和统计模型的表示方法,以及基于动态构建SQL的即席查询方法,并设计和实现了一套支持企业应用的数据统计服务.  相似文献   

3.
针对双柳煤矿瓦斯抽采人工检测数据以EXCEL表格形式录入保存,不便于数据的查询和统计,制约防突效率提升的问题,通过建设局域网数据共享硬件平台,设计B/S架构的统计软件,实现数据的快速查询统计、图表展示和互联共享。数据统计系统的应用,实现了人工检测数据的信息化管理,提高了防突工作效率,并为企业带来了一定的经济效益。  相似文献   

4.
目前教育部要求高校报送的学生就业报表众多,高校办学层次众多,需要进行一些就业数据的统计,分析,运用传统的VF9.0数据统计操作非常不方便,而SQL Server数据库比较适合用于高校学生就业数据统计。因此,SQL Server数据库在高校学生就业数据统计中的运用就显得尤为重要。本文就SQL Server数据库在高校学生就业数据统计中的运用进行了深入的探讨,具有一定的参考价值。  相似文献   

5.
《信息与电脑》2022,(1):20-22
为解决传统统计方法在实际应用中存在CPU占用量高的问题,开展基于大数据的大学生消费信贷行为数据信息统计方法设计研究,并提出一种全新的统计方法。与传统方法相比,新的统计方法可在生成统计报表时降低CPU占用量,有利于提升数据信息统计的效率和稳定性,为消费信贷机构的数据信息管理提供更有利的技术条件,并提高了消费信贷机构防控风险的能力。  相似文献   

6.
该文介绍了笔者在南京电大开放教育学籍数据统计工作中,借助于Excel数据透视表,配合开放教育教务管理系统的使用,可以快速便捷地对开放教育各类学籍数据进行统计和分析,极大地提高数据统计工作效率。  相似文献   

7.
该文介绍了笔者在南京电大开放教育学籍数据统计工作中,借助于Excel数据透视表,配合开放教育教务管理系统的使用,可以快速便捷地对开放教育各类学籍数据进行统计和分析,极大地提高数据统计工作效率。  相似文献   

8.
智能统计分析系统   总被引:1,自引:1,他引:0  
统计工作是实现企业信息化的根本,随着对统计工作要求的提高,统计技术革新面临重大挑战。以统一数据平台为核心,针对统计过程中无法满足客户需求的问题进行变革。建立了将商业智能功能与数据统计功能整合为一的智能统计分析系统,该系统具有统一数据存储、规范指标管理的效果,可以通过本系统的用户界面对企业业务完成报表统计、数据查询、应用分析等操作。该系统已成功投入使用,服务于统计工作,减轻工作压力、提高工作效率和质量,验证了本研究成果的有效性。  相似文献   

9.
大数据时代是推动经济社会变革的重要力量。对传统统计工作的方式、方法以及社会重要性将产生重大的影响。本文从大数据的视角下全方位对统计工作的变化进行了探讨,并结合统计工作实际提出大数据背景下统计工作应该做相应的变革,对促进统计工作能效具有重要意义。  相似文献   

10.
大数据时代是推动经济社会变革的重要力量。对传统统计工作的方式、方法以及社会重要性将产生重大的影响。本文从大数据的视角下全方位对统计工作的变化进行了探讨,并结合统计工作实际提出大数据背景下统计工作应该做相应的变革,对促进统计工作能效具有重要意义。  相似文献   

11.
随着计算机的普及,用Excel统计和处理数据已成为人们使用最普遍的方式之一。用Excel统计数据可以提高数据准确性与工作效率,避免重复劳动,减少工作量,达到事半功倍的效果。该文通过成绩统计模板的制作,来说明VBA在数据统计方面的应用。  相似文献   

12.
网络统计是基于网络的数据收集、处理、传输、分析与统计的计算活动,具有海量数据处理、分布计算、协同分析与统计等特点。网络统计的核心问题之一是如何实现网上各统计单元对统计任务的沟通与理解。针对这一问题,提出了基于CORBA的网络统系统结构,并对网络统计单元进行了形式化描述。  相似文献   

13.
现有的流统计信息主要侧重于流抽样而忽视全流统计。为此,提出一种使用优化设计的计数型Bloom过滤器流统计方法。针对计数型Bloom过滤器数据增长带来的计数器溢出和假阳性错误率增高的问题,分别设计动态统计和多个计数器协同统计的方案。概要化的存储结构可方便查询,而且其计数型Bloom过滤器简单的数据结构也易于硬件实现。实验结果表明,与传统哈希方法相比,计数型Bloom过滤器流统计方法的时间复杂度更低,可用于网络应用中的快速全流统计。  相似文献   

14.
Recent work in data integration has shown the importance of statistical information about the coverage and overlap of sources for efficient query processing. Despite this recognition, there are no effective approaches for learning the needed statistics. The key challenge in learning such statistics is keeping the number of needed statistics low enough to have the storage and learning costs manageable. In this paper, we present a set of connected techniques that estimate the coverage and overlap statistics, while keeping the needed statistics tightly under control. Our approach uses a hierarchical classification of the queries and threshold-based variants of familiar data mining techniques to dynamically decide the level of resolution at which to learn the statistics. We describe the details of our method, and, present experimental results demonstrating the efficiency of the learning algorithms and the effectiveness of the learned statistics over both controlled data sources and in the context of BibFinder with autonomous online sources.  相似文献   

15.
分段统计是最常用、最基本的统计方法,利用Excel的COUNTIF函数、FREQUENCY函数、数据透视表能轻松实现数据分段统计,提高数据处理效率。本文通过对成绩表中语文成绩的统计为例,详细分析了Excel中分段统计的实现方法以及各种方法的特点。  相似文献   

16.
针对工业过程数据存在的非高斯和多模态特性,提出一种基于统计差分LPP的多模态间歇过程故障检测方法。首先将统计模量分析的方法应用到间歇过程训练数据集中,计算统计过程变量的均值和方差,将不等长的批次变成等长的统计量,保证统计模量近似服从高斯分布;然后运用差分算法使多模态变为单模态,最后运用LPP算法进行降维和特征提取,计算样本的T2统计量,并利用核密度估计确定控制限。对于新来的测试样本数据统计差分处理后,向LPP模型上进行投影,计算新数据的T2统计量并与控制限比较进行故障检测。最后通过半导体过程数据的仿真结果表明,该算法的故障检测效果最好,验证了所提方法的有效性。  相似文献   

17.
Binary outcomes are very common in medical studies. Logistic regression is typically used to analyze independent binary outcomes while generalized estimating equations regression methods (GEE) are often used to analyze correlated binary data. Several goodness-of-fit (GoF) statistics for the GEE methods have been developed recently. The objective of this study is to compare the power and Type I error rates of existing GEE GoF statistics using simulated data under different conditions. The number of clusters was varied in each condition. Different tested models included discrete, continuous, observation-specific and/or cluster-specific covariates. Two or three observations per cluster were generated with various correlations between observations.No single GEE GoF statistic performed best across all conditions. Generally, the larger the number of clusters, the more powerful the GEE GoF statistics. The GEE GoF statistics with correctly specified working correlation matrices tended to be robust in terms of Type I error rates and more powerful. For data with two observations per cluster, both Evans and Pan's statistics [1998. Goodness of fit in two models for clustered binary data. Ph.D. Dissertation, University of Massachusetts; 2002a. Goodness-of-fit tests for GEE with correlated binary data. Scand. J. Stat. 29(1), 101–110.] and Barnhart–Williamson's statistics [1998. Goodness-of-fit tests for GEE modeling with binary data. Biometrics 54, 720–729.] performed well for detecting the effect of the omitted interaction between two binary covariates. Barnhart–Williamson's statistics were generally the most powerful for detecting other types of interactions in models with at least one continuous covariate. For data with three observations per cluster, Evans and Pan's statistics performed best.  相似文献   

18.
Field geological observations have both spatial and non-spatial aspects and recording them directly on a personal computer using a digital mapping tool has become a practical and effective alternative to traditional methods of field data collection and mapping. This paper presents the design of a cost-effective, stand-alone digital field-mapping tool named GRDM that caters to special requirements of field-based studies concerned with spatial disposition of the statistics of field measurements. Such studies require recording multiple observations for individual attributes at each field location to capture the inter-site variability and automatic computation of their statistics. Field observations include directional data that are circular in nature. Therefore, computation of their exclusive statistics within the field system is also necessary. To meet these requirements, GRDM was designed for field personnel lacking expertise in customizing a GIS. Its design automatically accommodates a list of values for each non-spatial attribute attached to individual location points and generates statistics from the lists. The system treats the orientation values as a distinct numeric data type and computes circular statistics for them. It makes both the original data as well as their statistics simultaneously available for extraction of thematic information.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号