期刊文献+
共找到452篇文章
< 1 2 23 >
每页显示 20 50 100
高校馆藏书目数据重复现象归因研究 被引量:1
1
作者 廖爱姣 《图书馆界》 2010年第6期10-12,共3页
馆藏书目数据库中大量重复数据的存在,给读者检索、图书馆业务工作和资源网络共享带来了麻烦。分析其产生原因,主要是图书编目过程中诸多因素直接或者间接地导致了馆藏书目数据重复。图书馆应采取有力措施,确保书目数据库的质量,以便实... 馆藏书目数据库中大量重复数据的存在,给读者检索、图书馆业务工作和资源网络共享带来了麻烦。分析其产生原因,主要是图书编目过程中诸多因素直接或者间接地导致了馆藏书目数据重复。图书馆应采取有力措施,确保书目数据库的质量,以便实现馆藏资源网络高效共享。 展开更多
关键词 书目数据 数据重复 归因
在线阅读 下载PDF
馆藏期刊书目数据重复问题及其对策 被引量:1
2
作者 邱翠云 《科技文献信息管理》 2008年第1期22-25,共4页
以图腾图书馆集成管理系统为例,分析了馆藏期刊书目数据重复的不利影响及产生的原因,并提出了解决和预防数据重复的对策和方法,以期对期刊书目数据库建设有所帮助。
关键词 期刊 书目数据 数据重复 编目
在线阅读 下载PDF
馆藏期刊书目数据重复问题及其对策
3
作者 邱翠云 《农业网络信息》 2008年第3期76-78,共3页
本文以图腾图书馆集成管理系统为例,分析馆藏期刊书目数据重复的不利影响及产生的原因,并提出解决和预防数据重复的对策和方法,以期对期刊书目数据库建设有所帮助。
关键词 期刊 书目数据 数据重复 编目
在线阅读 下载PDF
馆藏期刊书目数据重复问题及其对策
4
作者 邱翠云 《云南图书馆》 2008年第1期60-62,共3页
以图腾图书馆集成管理系统为例,分析馆藏期刊书目数据重复的不利影响及产生的原因,并提出解决和预防数据重复的对策和方法,以期对期刊书目数据库建设有所帮助。
关键词 期刊 书目数据 数据重复 编目
在线阅读 下载PDF
C语言中数据重复交换的问题分析
5
作者 薛媛媛 《青海师专学报》 2007年第5期122-125,共4页
文章主要讨论了在C语言教学中的一个数据交换实例中利用指针变量进行数据交换,而出现的数据重复置换的问题;并给出了两种改进的程序及其运行结果.
关键词 C语言 数据重复置换 指针变量
在线阅读 下载PDF
基于数据重复的快速傅里叶算法改进 被引量:1
6
作者 陈天峰 师剑军 崔琼 《探测与控制学报》 CSCD 北大核心 2013年第5期79-82,88,共5页
针对快速傅里叶运算中分辨率必须以提高采样时间为代价的问题,提出通过对过往数据的简单变换利用,增加了一次快速傅里叶运算的点数的快速傅里叶算法。该算法达到了在不改变采样时间的前提下提高分辨率的目的,仿真表明最终使得分辨率可... 针对快速傅里叶运算中分辨率必须以提高采样时间为代价的问题,提出通过对过往数据的简单变换利用,增加了一次快速傅里叶运算的点数的快速傅里叶算法。该算法达到了在不改变采样时间的前提下提高分辨率的目的,仿真表明最终使得分辨率可以提高2到4倍。 展开更多
关键词 数据重复 FFT 分辨率 数据处理
在线阅读 下载PDF
基于离线密钥分发的加密数据重复删除方法 被引量:12
7
作者 张曙光 咸鹤群 +2 位作者 王雅哲 刘红燕 侯瑞涛 《软件学报》 EI CSCD 北大核心 2018年第7期1909-1921,共13页
重复数据删除技术受到工业界和学术界的广泛关注.研究者致力于将云服务器中的冗余数据安全地删除,明文数据的重复删除方法较为简单.而用户为了保护隐私,会使用各自的密钥将数据加密后上传至云服务器,形成不同的加密数据.在保证安全性的... 重复数据删除技术受到工业界和学术界的广泛关注.研究者致力于将云服务器中的冗余数据安全地删除,明文数据的重复删除方法较为简单.而用户为了保护隐私,会使用各自的密钥将数据加密后上传至云服务器,形成不同的加密数据.在保证安全性的前提下,加密数据的重复删除较难实现.目前已有的方案较多依赖于在线的可信第三方.提出一种基于离线密钥分发的加密数据重复删除方案,通过构造双线性映射,在不泄露数据隐私的前提下,验证加密数据是否源自同一明文.利用广播加密技术实现加密密钥的安全存储与传递.任意数据的初始上传者能够借助云服务器,以离线方式验证后继上传者的合法性并传递数据加密密钥.无需可信第三方在线参与,实现了云服务器对加密数据的重复删除.分析并证明了方案的安全性.仿真实验验证了方案的可行性与高效性. 展开更多
关键词 重复数据删除 双线性映射 隐私保护 数据的流行度
在线阅读 下载PDF
数字时代解决案件数据重复录入难题的实践与探索
8
作者 沈陈胤 李杨 《森林公安》 2023年第5期12-17,共6页
公安机关承担着维护国家公共安全、保障社会经济稳定发展、管理社会公共事务、服务人民群众等重要职责。在大数据时代,以5G、区块链、云计算等为代表的新一代信息技术日新月异,不仅推动着国家治理理念、治理模式、治理手段的深刻转型,... 公安机关承担着维护国家公共安全、保障社会经济稳定发展、管理社会公共事务、服务人民群众等重要职责。在大数据时代,以5G、区块链、云计算等为代表的新一代信息技术日新月异,不仅推动着国家治理理念、治理模式、治理手段的深刻转型,而且也对政府治理的有限性、有序性、有效性提出了新的要求。特别是近年来,公安信息化建设经历了从无到有、从初级阶段步入到快速发展阶段的发展。 展开更多
关键词 国家公共安全 区块链 云计算 数据时代 社会公共事务 公安信息化建设 社会经济稳定 数据重复
在线阅读 下载PDF
基于重复数据删除的分层存储优化技术研究进展
9
作者 姚子路 付印金 肖侬 《计算机科学》 北大核心 2025年第1期120-130,共11页
随着全球数据量的爆炸式增长以及数据多样性的日益丰富,单一介质层的存储系统逐渐不能满足用户多样化的应用需求。分层存储技术可依据数据的重要性、访问频率、安全性需求等特征将数据分类存放到具有不同访问延迟、存储容量、容错能力... 随着全球数据量的爆炸式增长以及数据多样性的日益丰富,单一介质层的存储系统逐渐不能满足用户多样化的应用需求。分层存储技术可依据数据的重要性、访问频率、安全性需求等特征将数据分类存放到具有不同访问延迟、存储容量、容错能力的存储层中,已经在各个领域得到广泛应用。重复数据删除是一种面向大数据的缩减技术,可高效去除存储系统中的重复数据,最大化存储空间利用率。不同于单存储层场景,将重复数据删除技术运用于分层存储中,不仅能减少跨层数据冗余,进一步节省存储空间、降低存储成本,还能更好地提升数据I/O性能和存储设备的耐久性。在简要分析基于重复数据删除的分层存储技术的原理、流程和分类之后,从存储位置选择、重复内容识别和数据迁移操作3个关键步骤入手,深入总结了诸多优化方法的研究进展,并针对基于重复数据删除的分层存储技术潜在的技术挑战进行了深入探讨。最后展望了基于重复数据删除的分层存储技术的未来发展趋势。 展开更多
关键词 重复数据删除 分层存储 存储位置选择 重复内容识别 数据迁移
在线阅读 下载PDF
分类数据的重复测量及其在临床试验中的应用 被引量:5
10
作者 宋艳艳 何清波 苏炳华 《上海第二医科大学学报》 CSCD 北大核心 2005年第3期297-300,共4页
目的介绍分类数据重复测量资料的统计分析及其在临床试验中的应用。方法采用加权最小二乘法建立边际函数模型,给出治疗中风临床试验实例,调用SAS统计软件包中CATMOD过程对重复测量分类数据资料进行统计分析。结果应用加权最小二乘法可... 目的介绍分类数据重复测量资料的统计分析及其在临床试验中的应用。方法采用加权最小二乘法建立边际函数模型,给出治疗中风临床试验实例,调用SAS统计软件包中CATMOD过程对重复测量分类数据资料进行统计分析。结果应用加权最小二乘法可对分类数据重复测量资料中研究因素各水平及各观察时间点的效应进行估计。结论对于重复测量的分类数据的资料,使用加权最小二乘法拟合模型,由于考虑了多次测量数据之间的相关性,因而可以充分挖掘出数据中包含的信息。 展开更多
关键词 临床试验 重复测量 治疗中 中风 观察 相关性 SAS统计软件 数据重复 分类 结论
在线阅读 下载PDF
基于HDFS分布式云存储系统的重复数据检测与删除研究
11
作者 王储 《电脑编程技巧与维护》 2024年第1期92-95,共4页
传统最远点采样(FPS)算法、数据类型分析(WFC)算法的去重冗余度高,在同一数据集分块、去重检测中的数据重复率达到70~90%。基于这一实际情况,提出基于Hadoop分布式软件框架、分布式文件系统(HDFS)等云服务技术,建构用于复杂数据结构分... 传统最远点采样(FPS)算法、数据类型分析(WFC)算法的去重冗余度高,在同一数据集分块、去重检测中的数据重复率达到70~90%。基于这一实际情况,提出基于Hadoop分布式软件框架、分布式文件系统(HDFS)等云服务技术,建构用于复杂数据结构分析、数据分块去重的HDFS-SDBS云存储管理系统,使用基于文件相似度的抽样删除索引(SDBS)算法进行文件数据分块、哈希值(Hash)计算、随机抽样的相似度判定,利用元数据索引查重方式完成输入文件数据、内存数据的比对,删除相似度过高的重复数据,以提升云环境下的数据存储效率与准确率。 展开更多
关键词 HDFS-SDBS 分布式云存储系统 重复数据检测 删除
在线阅读 下载PDF
基于重复测量数据的Tikhonov型正则化方法
12
作者 侯炳雪 董超峰 《嘉兴大学学报》 2024年第6期5-11,共7页
针对基于重复测量数据的非线性不适定问题提出了一种Tikhonov型正则化方法:利用“信号平均”重构带有凸罚项的Tikhonov型正则化解,其中正则化参数可利用先验选择规则或序列统计偏差原则确定,并在变分源条件下分析了该方法在这两种参数... 针对基于重复测量数据的非线性不适定问题提出了一种Tikhonov型正则化方法:利用“信号平均”重构带有凸罚项的Tikhonov型正则化解,其中正则化参数可利用先验选择规则或序列统计偏差原则确定,并在变分源条件下分析了该方法在这两种参数选择规则下的收敛性结果. 展开更多
关键词 多组重复测量数据 Tikhonov型正则化 变分源条件 收敛性分析
在线阅读 下载PDF
馆藏期刊书目数据库中重复数据的产生及其对策
13
作者 邱翠云 《科技文献信息管理》 2008年第2期23-26,共4页
以图腾图书馆集成管理系统为例,分析了馆藏期刊书目数据重复的不利影响及产生的原因,并提出了解决和预防数据重复的对策和方法,以期对期刊书目数据库建设有所帮助。
关键词 期刊 书目数据 数据重复 编目
在线阅读 下载PDF
云加密数据安全重复删除方法 被引量:9
14
作者 张曙光 咸鹤群 +1 位作者 王利明 刘红燕 《软件学报》 EI CSCD 北大核心 2019年第12期3815-3828,共14页
在云环境存储模式中,采用用户端数据加密虽然能够有效降低数据的存储安全风险,但同时会使云服务商丧失重复数据鉴别能力,导致存储开销随数据量增大而不断攀升.加密数据重复删除技术是解决该问题的方法之一,现有方案通常基于可信第三方设... 在云环境存储模式中,采用用户端数据加密虽然能够有效降低数据的存储安全风险,但同时会使云服务商丧失重复数据鉴别能力,导致存储开销随数据量增大而不断攀升.加密数据重复删除技术是解决该问题的方法之一,现有方案通常基于可信第三方设计,安全性假设过强,执行效率较低.基于椭圆曲线与密文策略属性加密两种高安全密码学原语,构造了重复加密数据识别与离线密钥共享两种安全算法,进而实现一种无需初始数据上传用户与可信第三方实时在线的加密数据重复删除方法.详细的安全性与仿真实验分析,证明该方法不仅实现数据的语义安全,同时能够保证系统的高效率运行. 展开更多
关键词 加密数据重复删除 椭圆曲线 密文策略属性加密 数据流行度
在线阅读 下载PDF
衡量透气性测试设备的两项指标——“空白试验”数据和试验结果重复 性
15
作者 赵江 《现代塑料》 2005年第4期39-40,共2页
随着新的透气性检测设备以及新的检测方法的不断出现,设备之间确实存在着试验数据的差异。在这种客观条件下,我们该如何面对错综的数据体系?面对众多的测试设备,又该怎样做出选择呢?了解一些影响透气性测试的因素是解决问题的关键... 随着新的透气性检测设备以及新的检测方法的不断出现,设备之间确实存在着试验数据的差异。在这种客观条件下,我们该如何面对错综的数据体系?面对众多的测试设备,又该怎样做出选择呢?了解一些影响透气性测试的因素是解决问题的关键所在。 展开更多
关键词 透气性检测设备 检测方法 数据体系 “空白试验”数据 数据重复 气体渗透仪
在线阅读 下载PDF
重复数据删除技术 被引量:119
16
作者 敖莉 舒继武 李明强 《软件学报》 EI CSCD 北大核心 2010年第5期916-929,共14页
重复数据删除技术主要分为两类:相同数据的检测技术和相似数据的检测与编码技术,系统地总结了这两类技术,并分析了其优缺点.此外,由于重复数据删除技术会影响存储系统的可靠性和性能,又总结了针对这两方面的问题提出的各种技术.通过对... 重复数据删除技术主要分为两类:相同数据的检测技术和相似数据的检测与编码技术,系统地总结了这两类技术,并分析了其优缺点.此外,由于重复数据删除技术会影响存储系统的可靠性和性能,又总结了针对这两方面的问题提出的各种技术.通过对重复数据删除技术当前研究现状的分析,得出如下结论:a)重复数据删除中的数据特性挖掘问题还未得到完全解决,如何利用数据特征信息有效地消除重复数据还需要更深入的研究;b)从存储系统设计的角度,如何引入恰当的机制打破重复数据删除技术的可靠性局限并减少重复数据删除技术带来的额外系统开销也是一个需要深入研究的方面. 展开更多
关键词 网络存储系统 重复数据 数据删除 可靠性 性能
在线阅读 下载PDF
基于重复数据删除的虚拟桌面存储优化技术 被引量:12
17
作者 付印金 肖侬 +1 位作者 刘芳 鲍先强 《计算机研究与发展》 EI CSCD 北大核心 2012年第S1期125-130,共6页
虚拟桌面基础架构依靠数据中心海量的云基础设施,为用户按需提供虚拟桌面部署所需的软硬件资源,但同时面临存储资源利用率低和虚拟机启动慢的困境.针对虚拟桌面存储中具有大量数据冗余的特性,采用重复数据删除技术缩减虚拟桌面基础架构... 虚拟桌面基础架构依靠数据中心海量的云基础设施,为用户按需提供虚拟桌面部署所需的软硬件资源,但同时面临存储资源利用率低和虚拟机启动慢的困境.针对虚拟桌面存储中具有大量数据冗余的特性,采用重复数据删除技术缩减虚拟桌面基础架构的存储空间需求;并利用服务器本地磁盘缓存以及共享存储池内的固态硬盘来优化虚拟机的启动性能.通过原型实现,发现相比于基于内容分块的策略,静态分块策略更适合虚拟桌面存储进行重复数据删除,最优的分块大小为4KB,并能够缩减85%的存储空间容量;通过服务器本地磁盘缓存和基于闪存的固态硬盘进行I/O优化,虚拟机的启动速度能够获得35%的提升. 展开更多
关键词 云计算 虚拟桌面 重复数据删除 存储优化 固态硬盘
在线阅读 下载PDF
内容分块算法中预期分块长度对重复数据删除率的影响 被引量:6
18
作者 王龙翔 董小社 +3 位作者 张兴军 王寅峰 公维峰 魏晓林 《西安交通大学学报》 EI CAS CSCD 北大核心 2016年第12期73-78,共6页
针对基于内容分块重复数据删除方法缺少能够定量分析预期分块长度与重复数据删除率之间关系的数学模型,导致难以通过调整预期分块长度优化重复数据删除率的问题,提出了一种基于Logistic函数的数学模型。在大量真实数据测观察基础上,提... 针对基于内容分块重复数据删除方法缺少能够定量分析预期分块长度与重复数据删除率之间关系的数学模型,导致难以通过调整预期分块长度优化重复数据删除率的问题,提出了一种基于Logistic函数的数学模型。在大量真实数据测观察基础上,提出了通过Logistic函数描述非重复数据的"S"形变化趋势,解决了该数据难以从理论上推导、建模的问题,证明了基于内容分块过程服从二项分布,并从理论上推导出了元数据大小模型。基于上述两种数据模型,通过数学运算最终推导得到重复数据删除率模型,并利用收集到的3组真实数据集对模型进行了实验验证。实验结果表明:反映数学模型拟合优度的R2值在0.9以上,说明该模型能够准确地反映出预期分块长度与重复数据删除率之间的数学关系。该模型为进一步研究如何通过调整预期分块长度使重复数据删除率最优化提供了理论基础。 展开更多
关键词 基于内容分块 重复数据删除率 Logistic函数
在线阅读 下载PDF
重复数据删除关键技术研究进展 被引量:65
19
作者 付印金 肖侬 刘芳 《计算机研究与发展》 EI CSCD 北大核心 2012年第1期12-20,共9页
企业数据量的不断增长和数据传输率要求的不断提高,使得数据中心海量存储空间和高带宽网络传输需求成为当前网络存储领域面临的严峻挑战.利用特定应用数据集内数据高度冗余的特性,重复数据删除技术能够极大地缩减数据存储容量需求,提高... 企业数据量的不断增长和数据传输率要求的不断提高,使得数据中心海量存储空间和高带宽网络传输需求成为当前网络存储领域面临的严峻挑战.利用特定应用数据集内数据高度冗余的特性,重复数据删除技术能够极大地缩减数据存储容量需求,提高网络带宽利用率,降低企业IT运营成本.目前,重复数据删除技术已成为国内外的研究热点.首先介绍重复数据删除技术的概念、分类及其应用;阐述重复数据删除系统的体系结构和基本原理,并与传统存储系统进行对比.然后重点分析和总结重复数据删除各项关键技术的研究现状,包括数据划分方法、I/O优化技术、高可靠数据配置策略以及系统可扩展性.最后对重复数据删除技术的研究现状进行总结,并指出未来可能的研究方向. 展开更多
关键词 重复数据删除 数据缩减率 数据划分 I/O优化 高可靠 可扩展
在线阅读 下载PDF
一种基于重复数据删除技术的云中云存储系统 被引量:14
20
作者 毛波 叶阁焰 +2 位作者 蓝琰佳 张杨松 吴素贞 《计算机研究与发展》 EI CSCD 北大核心 2015年第6期1278-1287,共10页
随着云存储技术的快速发展和应用,越来越多的企业和用户都开始将数据从本地转移到云存储服务提供商进行存储.但是,在享受云存储高质量服务的同时,将数据仅仅存储于单个云存储服务商中会带来一定的风险,例如云存储服务提供商的垄断、数... 随着云存储技术的快速发展和应用,越来越多的企业和用户都开始将数据从本地转移到云存储服务提供商进行存储.但是,在享受云存储高质量服务的同时,将数据仅仅存储于单个云存储服务商中会带来一定的风险,例如云存储服务提供商的垄断、数据可用性和安全性等问题.为了解决这个问题,提出了一种基于重复数据删除技术的云中云存储系统架构,首先消除云存储系统中的冗余数据量,然后基于重复数据删除集中的数据块引用率将数据块以复制和纠删码2种数据布局方式存储在多个云存储服务提供商中.基于复制的数据布局方式易于实现部署,但是存储开销大;基于纠删码的数据布局方式存储开销小,但是需要编码和解码,计算开销大.为了充分挖掘复制和纠删码数据布局的优点并结合重复数据删除技术中数据引用的特点,新方法用复制方式存储高引用数据块,用纠删码方式存储其他数据块,从而使系统整体性能和成本达到较优.通过原型系统的实现和测试验证了相比现有云中云存储策略,新方法在性能和成本上都有大幅度提高. 展开更多
关键词 云中云 重复数据删除 数据布局 复制 纠删码
在线阅读 下载PDF
上一页 1 2 23 下一页 到第
使用帮助 返回顶部