首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
以财政业务数据为例,界定了数据标准化的内涵;阐述了标识标准、分类编码标准、数据元标准等在信息化建设和电子政务中的重要性;根据财政业务数据标准化的实践,分析了数据标准、业务和信息系统建设三者的关系;并结合未来的发展趋势,指出了数据标准化工作中应当注意的问题。  相似文献   

2.
分析了政府数据治理体系建设过程中存在的整体规划欠缺、数据量不均衡、标准不统一、平台功能不能满足群众需求、数字人才缺乏等问题,在此基础上结合政府数字治理的特征,从高效严密的管理机制、先进融合的技术、有章可循的规章标准、"纵横互联"的数据资源4个方面探究了构建政府数据治理体系的实施路径。  相似文献   

3.
大多数信息系统通过信息链来提供服务,其中的数据通常在多个数据库中共享服务。这种数据共享方式通常会导致出现不准确或不完整的数据。这些数据问题可造成巨大的社会和经济影响,比如失去商业机会,失去现有的客户和作出错误的商业决定等等。为了评估共享数据的质量,我们提出了一种模型,此模型突出了数据操作,数据问题和数据质量评估标准的关系。在此基础上,我们提出了关于数据的准确性和完整性评估算法。此模型可用于在动态的信息链环境中确定数据的准确性和完整性。  相似文献   

4.
赵华  王健 《情报探索》2015,(2):21-24,30
在阐述科学数据的内涵和科学数据元数据的含义及功能的基础上,通过对国内外有代表性的科学数据元数据标准及宏观内容的比较研究,深入分析了科学数据元数据内容,并针对已有科学数据元数据标准在实际应用中存在的问题,提出相应的解决思路。  相似文献   

5.
选取了不同研究领域的11个科学数据元数据标准,对其内容构成进行比较,并对标识信息、内容信息和质量信息模块中的元数据元素和实体进行详细的对比,通过分析各标准中元数据元素项的出现频次,进而总结出了科学数据的属性维度,并确定了各维度下的属性标签,为下一步开展科学数据用户相关性研究奠定基础。  相似文献   

6.
在分析大数据环境下商业银行审计非结构化数据特点的基础上,结合当前大数据领域处理和分析非结构化数据的主流技术,提出商业银行审计云平台构建过程中在非结构化数据应用分类、采集存储、处理分析等方面的数据规划标准,为大数据环境下规范商业银行非结构化数据审计提供参考。  相似文献   

7.
吴素舫  柯平 《现代情报》2018,38(1):25-30
随着大数据技术在文化领域的渗透,设计出能有效指导文化行业大数据具体标准制定方向的框架体系尤为重要。文章通过论述我国文化行业大数据标准规范构建的迫切性及分析我国文化大数据标准体系构建的依据,继而构建我国文化大数据标准规范体系框架,包括基础标准、技术标准、管理标准、应用与服务标准。  相似文献   

8.
基于RSA和高级数据加密标准的网络数据加密方案   总被引:1,自引:0,他引:1  
张乐星 《科技通报》2005,21(2):198-200
阐述了公开密钥密码技术RSA算法和最新的数据加密标准AES,利用AES算法的效率以及DES算法中密钥产生和管理的方便性等特点。并将两者结合起来,提出了一种新的网络数据加密方案,该网络数据加密方案可以有效地解决数据在网络传输中的保密性等问题。  相似文献   

9.
现有"大数据观"是在先入为主的情况下形成的,存在一些偏差或错误,有必要加以辨析、纠偏。从大数据概念角度分析,不能将数据规模的大小作为衡量大数据的标准,不必强调大数据与小数据之间的区分与对立,而应该推动不同数据的多元融合。从大数据功能角度分析,"让大数据发声""大数据革命""数据为王"等表述,夸大了大数据的作用,关于大数据功能的定位也不准确;其实,大数据同样存在缺陷和不足,它的功能是有限的,甚至还可能会带来危害。  相似文献   

10.
本文通过HTML文件动态调用数据库中数据的实例,阐述了利用ASP调用数据库的数据,并格式化为标准的XML文件,再通过数据岛技术实现HTML文件动态调用数据的方法。  相似文献   

11.
针对输变电工程数据管理在数据处理、数据质量与安全等方面缺乏完整数据管理技术标准体系的问题,通过调研现有标准,明确输变电工程数据管理技术标准存在的问题及需求。立足于该需求,确立输变电工程数据管理技术标准系统目标,建立输变电工程数据管理技术标准关联模型。通过对输变电工程数据管理技术标准依存主体常用词汇的抽取,形成输变电工程数据管理技术标准的初步类图并进行分组。同时,构建输变电工程数据管理技术标准体系结构,提出输变电工程数据管理技术标准体系框架,为完善输变电工程数据管理技术标准体系提供参考。  相似文献   

12.
The activities in our current world are mainly supported by data-driven web applications, making extensive use of databases and data services. Such phenomenon led to the rise of Data Scientists as professionals of major relevance, which extract value from data and create state-of-the-art data artifacts that generate even more increased value. During the last years, the term Data Scientist attracted significant attention. Consequently, it is relevant to understand its origin, knowledge base and skills set, in order to adequately describe its profile and distinguish it from others like Business Analyst. This work proposes a conceptual model for the professional profile of a Data Scientist and evaluates the representativeness of this profile in two commonly recognized competences/skills frameworks in the field of Information and Communications Technology (ICT), namely in the European e-Competence (e-CF) framework and the Skills Framework for the Information Age (SFIA). The results indicate that a significant part of the knowledge base and skills set of Data Scientists are related with ICT competences/skills, including programming, machine learning and databases. The Data Scientist professional profile has an adequate representativeness in these two frameworks, but it is mainly seen as a multi-disciplinary profile, combining contributes from different areas, such as computer science, statistics and mathematics.  相似文献   

13.
Open data aims to unlock the innovation potential of businesses, governments, and entrepreneurs, yet it also harbours significant challenges for its effective use. While numerous innovation successes exist that are based on the open data paradigm, there is uncertainty over the data quality of such datasets. This data quality uncertainty is a threat to the value that can be generated from such data. Data quality has been studied extensively over many decades and many approaches to data quality management have been proposed. However, these approaches are typically based on datasets internal to organizations, with known metadata, and domain knowledge of the data semantics. Open data, on the other hand, are often unfamiliar to the user and may lack metadata. The aim of this research note is to outline the challenges in dealing with data quality of open datasets, and to set an agenda for future research to address this risk to deriving value from open data investments.  相似文献   

14.
通过分析Pawlak粗糙集模型在数据挖掘中应用的局限性,提出了一种基于变精度粗糙集模型的数据挖掘方法。在数据挖掘中采用变精度粗糙集方法对胶合板缺陷数据进行属性约简和规则提取,并将所得规则用于分类。结果表明:变精度粗糙集改进了Pawlak粗糙集的不足,具有更高的可靠性和鲁棒性。  相似文献   

15.
The recently passed European Directive on the Protection of Personal Data aims to harmonize European data protection law at a higher level of protection than exists now. It represents a European consensus on a standard for personal privacy and a model for countries without data protection laws. The protracted process for agreement and ratification, however, has produced a document with many derogations and ambiguities, reflecting the wider moves towards 'subsidiarity' within the European Union. Of concern to North America is the stipulation that transborder data flow may not be permitted unless the receiving country can demonstrate an 'adequate' level of protection. While the process through which this provision will be interpreted and applied is so far found to be complicated and unclear, nevertheless European authorities will be reluctant to tolerate 'data havens,' a fact that should concern North American business that relies on the unimpeded flows of personal data from and to Europe. Neither Canada nor the United States can claim 'adequate' data protection according to the European standard. However, Canadian efforts through the Canadian Standards Association and the Federal Information Highway Advisory Council signal an attempt to fashion a more comprehensive policy framework for privacy than the more incremental and reactive approach of the United States. This divergence is explained by key cultural, economic, and political factors within Canada, which have caused a different reaction to the extraterritorial effects of the European Union's Data Protection Directive.  相似文献   

16.
信息资源描述与存储的可视化研究   总被引:8,自引:0,他引:8  
周宁 《情报科学》2004,22(1):9-12,18
本文论述了信息资源可视化模型方法,并对信息资源采用了图符法、高维空间描述法、语音-文本转换法、知识组织体系法和多种数据压缩法,从而确立了信息资源可视化模型。信息可视化模型需要专用的图符库、词库、资源特征库与相关知识库的支撑,它极大地方便了信息资源的描述、存储、检索与利用。同时,为了有效地利用存储空间、优化系统,采用多种数据压缩方法对图符库、词库和资源特征的索引库等信息资源的可视化描述进行了有效压缩,使可视化模型得到进一步优化。  相似文献   

17.
数据出版理论与实践关键问题   总被引:1,自引:1,他引:0  
目的】在梳理国内外数据出版理论成果与具体实践的基础上,从学术传播角度厘清数据出版涉及的关键问题,包括数据出版概念和内涵、具体形态、主要障碍。【方法】主要采用定性方法,分析数据出版与传统论文出版的异同,及这些差异带来的理论和实践挑战。【结果】研究发现,数据出版不仅仅是数据本身的共享,还应包括数据相关信息的出版。出版主体是多样化的,出版过程涉及多主体合作。其出版模式不仅有出版机构控制模式,还有非出版机构控制模式和混合模式。【结论】当前数据出版的主要障碍是伦理规范缺失导致数据出版学术"奖惩"功能失效,亟需制定数据出版的伦理规范、用稿机制规范、数据引用规范和元数据标准,通过上述规范将数据出版纳入学术传播体系。  相似文献   

18.
GSM在数据传输应用上,具有价格便宜、覆盖范围广等特点,它特别适用于需频繁传送小流量数据的应用,如车辆调度、监控、监测等领域。本文利用GSM公共网络进行数据传输的方法,通过标准的RS232接口结合己有的单片机系统,实现数据的无线传输,并且监控终端也不再仅局限于PC机,也可以是移动电话或其他移动终端。  相似文献   

19.
GSM在数据传输应用上,具有价格便宜、覆盖范围广等特点,特别适用于需频繁传送小流量数据的应用,如车辆调度、监控、监测等领域。本文利用GSM公共网络进行数据传输的方法,通过标准的RS232接口结合己有的单片机系统,实现数据的无线传输,并且监控终端也不再仅局限于PC机,也可以是移动电话或其他移动终端。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号