首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
个性化K-匿名模型   总被引:1,自引:0,他引:1  
K-匿名化是数据发布环境下保护数据隐私的一种方法.目前的K-匿名化方法主要是针对一些预定义的隐私泄露参数来进行隐私控制的.隐私保护的重要原则之一就是隐私信息的拥有者有隐私自治的权利[1].这就要求在实现匿名化过程当中考虑到个人不同的隐私需求,制定个性化的隐私约束.根据个人隐私自治的原则结合K-匿名模型的最新发展,提出了一种个性化K-匿名模型,并给出了基于局部编码和敏感属性泛化的个性化K-匿名算法.实验结果表明,该方法可以在满足个性化隐私需求的情况下,完成匿名化过程,并且采用该方法进行匿名所造成的信息损失较小.  相似文献   

2.
《电子技术应用》2016,(12):115-118
K-匿名是信息隐私保护的一种常用技术,而使用K-匿名技术不可避免会造成发布数据的信息损失,因此,如何提高K-匿名化后数据集的可用性一直以来都是K-匿名隐私保护的研究重点。对此提出了一种基于抽样路径的局域泛化算法——SPOLG算法。该算法基于泛化格寻找信息损失较小的泛化路径,为减少寻径时间,引入等概率抽样的思想,选用等概率抽样中的系统抽样方法进行取样,利用样本代替数据集在泛化格上寻找目标泛化路径,最后在该路径上对数据集进行泛化。同时,本算法使用局域泛化技术,能够降低信息损失量,提高发布数据集的可用性。实验结果证明,本算法匿名化的数据集信息损失度低,数据可用性高。  相似文献   

3.
K-匿名是微数据发布隐私保护的一种重要方法。针对适应动态数据、实时相应等特征需求,提出基于R树的多维数据K匿名解决方案,包括对原有R树结构的改造方法及其相应的K-匿名化过程。基于Adult数据库,通过实验验证了本模型能够保证K匿名属性的正确性,同时由于分裂算法的影响,也能保证信息保存的完整性。  相似文献   

4.
《电子技术应用》2017,(9):132-136
K-匿名算法及现存K-匿名改进算法大多使用牺牲时间效率降低发布数据信息损失量的方法实现数据的匿名化,但随着数据量的急剧增长,传统的数据匿名化方法已不适用于对较大数据的处理。针对K-匿名算法在单机执行过程中产生大量频繁项集和重复搜索数据表的缺点,将MapReduce模型引入到抽样泛化路径K-匿名算法中对其进行优化。该方法兼具MapReduce及抽样泛化算法的优点,高效分布式匿名化数据集,降低发布数据集信息损失量,提高数据的可用性。实验结果表明:当数据量较大时,该优化算法在时间效率及数据精度方面有显著提高。  相似文献   

5.
杨柳  李云 《计算机应用》2021,41(12):3521-3526
K-匿名算法通过对数据的泛化、隐藏等手段使得数据达到K-匿名条件,在隐藏特征的同时考虑数据的隐私性与分类性能,可以视为一种特殊的特征选择方法,即K-匿名特征选择。K-匿名特征选择方法结合K-匿名与特征选择的特点使用多个评价准则选出K-匿名特征子集。过滤式K-匿名特征选择方法难以搜索到所有满足K-匿名条件的候选特征子集,不能保证得到的特征子集的分类性能最优,而封装式特征选择方法计算成本很大,因此,结合过滤式特征排序与封装式特征选择的特点,改进已有方法中的前向搜索策略,设计了一种混合式K-匿名特征选择算法,使用分类性能作为评价准则选出分类性能最好的K-匿名特征子集。在多个公开数据集上进行实验,结果表明,所提算法在分类性能上可以超过现有算法并且信息损失更小。  相似文献   

6.
针对快递单号被盗取和快递单信息保护不当造成的隐私泄露问题进行了研究, 提出了一种新型K-匿名模型对快递信息进行匿名处理。该方法通过随机打破记录中属性值之间的关系来匿名数据, 相比于其他传统方法, 克服了数据间统计关系丢失的问题和先验知识攻击。实验结果表明, 新型K-匿名方法能够加强隐私保护和提高知识保护的准确性。  相似文献   

7.
隐私保护中K-匿名模型的综述   总被引:1,自引:1,他引:0       下载免费PDF全文
K-匿名是近年来隐私保护研究的热点,介绍了K-匿名、K-最小匿名化的基本概念,阐述了泛化与隐匿技术,总结了K-匿名的评估标准,并分析了现有的K-匿名算法。最后对该领域的发展方向作了展望。  相似文献   

8.
保护隐私的(L,K) 匿名*   总被引:1,自引:1,他引:0  
提出了一种在K-匿名之上的科学与工程系(L,K)-匿名方法,用于对K-匿名后的数据进行保护,并给出了(L,K)-匿名算法.实验显示该方法能有效地消除K-匿名后秘密匿名属性信息的泄漏,增强了数据发布的安全性.  相似文献   

9.
刘坚  刘晖 《计算机应用研究》2009,26(12):4728-4729
提出了一种新的K-匿名模型对隐私信息进行保护,将熵分类的方法应用于K-匿名模型上,实验表明该模型的有效性,利用该模型对数据进行K-匿名处理后,确保共享数据具有很高的精确度,尽可能接近原始数据,同时有效地防止隐私信息的泄露。  相似文献   

10.
基于多维泛化路径的K-匿名算法   总被引:3,自引:1,他引:2       下载免费PDF全文
为使微数据发布在满足K-匿名要求的同时提高匿名数据的精度,提出多维泛化路径的概念及相应的2种K-匿名算法,包括完整Filter K-匿名算法和部分Filter K-匿名算法。将它们与Incognito算法和Datafly算法进行比较,实验结果表明2种算法都能有效降低匿名信息损失,提高匿名数据精度和处理效率。  相似文献   

11.
针对推理检测需要的所有历史查询结果的数据规模较大这一问题, K-Q算法结合K-匿名模型在历史查询结果的存储规模上进行了优化, 通过推理攻击模拟算法在线检测恶意查询。在真实数据集上的实验证明了K-Q算法可以自适应于查询规模的增长, 在准确率和内存消耗上都明显优于已有的直接基于相关元组合并优化的T-D算法。  相似文献   

12.
由于传统SegNet模型在采样过程中产生了大量信息损失,导致图像语义分割精度较低,为此提出了一种融合残差连接的新型编-解码器网络结构:文中引入了多残差连接策略,更为全面地保留了多尺度图像中包含的大量细节信息,降低还原降采样所带来的信息损失;为进一步加速网络训练的收敛效率,改善样本的不平衡问题,设计了一种带平衡因子的交叉熵损失函数,对正负样本不平衡现象予以针对性的优化,使得模型的训练更加高效;实验表明该方法较好地解决了语义分割中信息损失以及分割不准确的问题,与SegNet相比,本网络在Cityscapes数据集上进行精细标注的mIoU值提高了约13%。  相似文献   

13.
语义匹配是问答领域的一个核心任务,能够为问答系统和信息检索等领域提供技术支持.目前对于语义匹配这一特殊分类问题,神经网络主要使用交叉熵或者对比代价损失函数,忽略了损失函数的分类限制宽泛,导致其在分类边缘存在误差.为了解决此种问题,本文在已有的孪生神经网络的基础上,引入am-softmax损失函数,提升模型精确度,同时在...  相似文献   

14.
针对当前图像修复领域存在结构丢失、纹理模糊、不能够充分利用背景信息生成内容风格一致的填充区域的问题,在编码解码网络基础上,提出带有多尺度结构信息与注意力机制的共享修复模型。在生成阶段,嵌入多尺度结构信息为图像修复提供前提条件。同时使用多尺度注意力机制,从背景信息中获取相关信息,并经过细化,生成与图像相关的内容和结构;使用PatchGAN和固定权重VGG-16分类器作为鉴别器,并将风格损失和感知损失引入到对抗网络中,以实现所生成图像的风格一致性。在Places2数据集上与当前主流的图像修复算法进行对比,实验结果表明该算法与其他算法相比能较好地恢复图像结构的细节信息,生成更清晰、精细的修复结果。  相似文献   

15.
现有大多数利用图神经网络的算法进行文本分类时,忽略了图神经网络的过度平滑问题和由于文本图拓扑差异引入的误差,导致文本分类的性能不佳。针对这一问题,提出了衡量多个文本图表示的平滑度方法WACD以及抑制过平滑现象的正则项RWACD。随后提出了基于注意力和残差的网络结构ARS,用于弥补由于图拓扑差异引起的文本信息的损失。最后,提出了图卷积神经网络文本分类算法RA-GCN。RA-GCN在图表示学习层使用ARS融合文本表示,在读出层使用RWACD抑制过平滑现象。在六个中英文数据集上进行实验,实验结果证明了RA-GCN的分类性能,并通过多个对比实验验证了RWACD和ARS的作用。  相似文献   

16.
为了解决图像修复过程中破损区域信息丢失问题并实现图像中任意破损区域的修复,设计了双编码器模型,独立地对掩模和图像进行编码,利用掩模特征重建图像,减少掩模信息的损失,添加跳跃连接补充因下采样丢失的图像信息并加速网络的收敛,引入对抗训练提高重建图像的质量。在places2数据集上进行的训练和测试结果表明,该方法的图像修复效果在精度和全局性上均有良好的表现,且可用于多种类型掩模的图片修复。  相似文献   

17.
A statistical database (SDB) is a database that provides simple summary statistics (e.g., SUM, COUNT, MAX, MEDIAN, etc.) about individuals in the database and that supports statistical data analysis. When SDB users infer protected information in the SDB from responses to queries, we say that the SDB is compromised.

Summary tables are tabular representations of summary data. For a given aggregate function and a set of attributes to specify subsets of individuals in the SDB, all possible summary tables form a lattice. The SDB security problem in the lattice model is defined as preventing the users from obtaining the information that a table element (i.e., cell) is of size one.

In this paper, to solve the SDB security problem in the lattice model, we generalize three cell-level control techniques, namely, cell suppression by merging, m-cube, axis merging, into the lattice model. We define the concept of information loss, derive various properties of the minimum information loss, and then investigate the effectiveness of heuristic algorithms for the minimum information loss in each of the three cell-level control techniques.  相似文献   


18.
Minimum spanning tree partitioning algorithm for microaggregation   总被引:7,自引:0,他引:7  
This paper presents a clustering algorithm for partitioning a minimum spanning tree with a constraint on minimum group size. The problem is motivated by microaggregation, a disclosure limitation technique in which similar records are aggregated into groups containing a minimum of k records. Heuristic clustering methods are needed since the minimum information loss microaggregation problem is NP-hard. Our MST partitioning algorithm for microaggregation is sufficiently efficient to be practical for large data sets and yields results that are comparable to the best available heuristic methods for microaggregation. For data that contain pronounced clustering effects, our method results in significantly lower information loss. Our algorithm is general enough to accommodate different measures of information loss and can be used for other clustering applications that have a constraint on minimum group size.  相似文献   

19.
The Internet has been flooded with spam emails, and during the last decade there has been an increasing demand for reliable anti-spam email filters. The problem of filtering emails can be considered as a classification problem in the field of supervised learning. Theoretically, many mature technologies, for example, support vector machines (SVM), can be used to solve this problem. However, in real enterprise applications, the training data are typically collected via honeypots and thus are always of huge amounts and highly biased towards spam emails. This challenges both efficiency and effectiveness of conventional technologies. In this article, we propose an undersampling method to compress and balance the training set used for the conventional SVM classifier with minimal information loss. The key observation is that we can make a trade-off between training set size and information loss by carefully defining a similarity measure between data samples. Our experiments show that the SVM classifier provides a better performance by applying our compressing and balancing approach.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号