传统的数据清洗方法大部分是针对海量静态数据的,为了达到更好的通用性主要使用统计和策略匹配的方法来实现对于海量数据中有误差的不真确的部分或者是冗余的部分进行修正或是剔除。在这些清洗算法中,数据被看做是稳定的数据流。这种假设的数据流数据之前虽然有先后之分,遵从一定的时序,但是清洗算法并没有关心数据之间的时间间隔是否均等,在考虑数据的有效性真确性时也没有考虑数据与时间t之间的关系。举一个简单地例子,如表1所示考虑对于倾角数据的如下两种测量情况。假设在这两种情况下所测得的倾角值x的散点序列是一样的都记做x1(1、1.1、1、5、1、1.2)、x2(1、1.1、1、5、1、1.2)在不考虑记录时间的情况下当我们认定x1的测量结果
上一篇:基于LCS的WEB站点指纹识别设计+文献综述
下一篇:利用WinPcap技术实现数据包的捕获和分析

PHP+IOS的会议管理系统的设计+ER图

标准件经销管理系统【959字】

客户關系管理系统的发展与研究【1843字】

學生成绩管理系统的设计与实现【1741字】

港航管理系统门户网站之思考【2521字】

市场化全球化知识化城市...

可扩展的计算机网络管理...

神经外科重症监护病房患...

AT89C52单片机的超声波测距...

中国学术生态细节考察《...

10万元能开儿童乐园吗,我...

国内外图像分割技术研究现状

公寓空调设计任务书

承德市事业单位档案管理...

医院财务风险因素分析及管理措施【2367字】

C#学校科研管理系统的设计

志愿者活动的调查问卷表