首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 218 毫秒
1.
词汇链是文本中一系列词汇关联而成的语义链,构造词汇链有助于提高文本的连贯性,把握文本主题。借鉴概念层次网络(HNC)理论对词汇语义进行形式化描述的原理,研究基于语义网络节点遍历计算的词汇链构造方法。首先对汉语文本进行分词处理,从知识库中获得词语的HNC符号,然后对语义符号进行解析,获得词语的语义关联性并构造词汇链;最后,对词汇链进行优选处理,设定阈值获得优选词汇链。实验结果表明,该方法构造的词汇链可接受度较高,对主题标引、自动文摘、文本分类等有重要价值。  相似文献   

2.
基于句子相似度的文本主题句提取算法研究   总被引:1,自引:0,他引:1  
文本主题提取是文本挖掘领域的重要研究内容,解决文本信息泛滥的重要手段.为了解决现有文本主题句提取中一些局部主题容易被忽略的问题,本文提出一种"先分割,再提取"的思想.首先将文本表示为句子的线性序列,句子表示为词的线性序列,并对每个句子都预处理为含有实词的词汇链,然后基于知网(Hownet)计算相邻句子相似度.基于句子相似度,采用文本分割技术将文本分为多个关于子主题的句子包,通过句子关系图对这些句子包进行主题句提取.最后选用不同的语料库,设计进行了可接受性测试,实验结果验证该算法是可行、有效地.  相似文献   

3.
关键词自动标引是一种识别有意义且具有代表性片段或词汇的自动化技术。关键词自动标引可以为自动摘要、自动分类、自动聚类、机器翻译等应用提供辅助作用。本文利用基于知网的词语语义相关度算法对词汇链的构建算法进行了改进,并结合词频和词的位置等统计信息,进行关键词的自动标引。实验证明,该方法可以有效的进行关键词的自动标引。  相似文献   

4.
一种面向语义的信息检索方法   总被引:1,自引:0,他引:1  
传统的信息检索技术忽视了语义对检索过程的影响,这是造成查准率不高的一个重要原因.论文提出了一种面向语义的信息检索方法,该方法强调使用基于知网的语义处理技术实现对用户查询需求和目标文档的语义标注,使用基于知网的词汇链技术实现对文档特征词汇的过滤.一方面可以实现语义级别的检索匹配,另一方面可以降低大量无关词对检索结果的干扰.论文描述了一个实现该方法的信息检索系统SOIRS,并且利用该系统与传统检索系统做了对比实验.实验结果表明面向语义的信息检索方法在查准率方面要明显优于传统信息检索方法.  相似文献   

5.
北京师范大学图书借阅系统的网络分析   总被引:2,自引:0,他引:2  
本文通过对2005年北京师范大学图书借阅记录的分析,构建了单顶点网和二分网两种网络,给出了图书借阅数据在这两个网络上的度分布,通过比较得到这两个网络的度分布具有时间演化不变性.然后在单顶点网络上抽取了部分数据进行分析,发现各子网络的平均路径长度L和网络的平均集聚系数C随网络规模增大总体上有减小的趋势;并且网络具有相对较高的平均集聚系数、较小的"平均最短路径长度",表现出明显的"小世界效应".最后在二分网上基于同类节点的相似性提出了基于三元组的集聚系数的定义,给出了该集聚系数在北师大图书借阅网络上的分布.  相似文献   

6.
本文依据中国知网、《中图法》、《中国分类主题词表》等知识库,通过对领域词语的概念化处理、建立推理规则、过滤掉阈值较低的词语等手段,形成领域词语本体知识库;然后,根据待分类题名的语义逻辑关系,结合基于距离的语义相似度的计算规则,形成一种应用于领域词语本体的题名自动分类方法,该方法在一定程度上弥补了文献题名特征不足的缺点,且提高了准确率和召回率。  相似文献   

7.
基于词汇链的应急预案主题抽取方法研究   总被引:1,自引:0,他引:1  
本文针对应急预案自动主题抽取的需求,采用词汇语义相关度计算的方法,构建了一个基于词汇链算法且符合人的主观感受的主题抽取模型.模型根据应急预案文本的特点,运用了自然语言处理技术,改进了原始的词汇链生成算法,提出了一种多因素词语权重算法.通过与人工抽取主题词的实验结果相比较,该主题提取模型在查全率和查准率上都取得了较好的效果.  相似文献   

8.
智能咨询是图书馆智慧化建设的重要一环,是革新咨询服务的技术保障。分析我国图书馆智能咨询服务研究现状有助于图书馆改善咨询服务,提升智慧化水平。文章基于文献计量学理论,从知网、万方、维普数据库中获取科研论文的题录数据,利用RAWGraphs、VOSViewer工具进行可视化分析,发现我国图书馆智能咨询服务研究数量虽然有所爆发,但尚未形成体系;研究主题主要集中在可行性与理论模型、知识库、知识推理和交互平台建设上;存在学科交叉融合发展趋势不明显、研究黏性和科研合作不足、智慧度和功能拓展不足、反馈机制和评价体系不成熟等问题;未来可从加强合作、加强新技术应用、加强评价类研究等路径进行拓展。  相似文献   

9.
基于AIMLBot智能机器人软件,利用"海量智能分词"和Lucene.net对机器人的中文知识库进行分词和索引检索,运用《知网》对用户输入问句与知识库问句进行相似度计算,获取相似度最高的知识问句进行推理,从而实现机器人在图书馆实时虚拟参考咨询中的服务。  相似文献   

10.
提出一种基于词汇链的关键词抽取方法。该方法通过构造词汇链来描述技术路线图的技术领域主题内容,并将词汇链作为表征技术路线图中领域关键词、核心技术关键词及其语义关系的词汇序列。实验表明该方法抽取的关键词能够更全面地揭示技术路线图的技术领域主题内容,其抽词结果的准确率和召回率较TF-IDF方法有明显的提高。  相似文献   

11.
基于知网和术语相关度的本体关系抽取研究*   总被引:1,自引:0,他引:1  
 提出一种基于知网和术语相关度的关系抽取方法。首先通过句法分析提取术语的上下文特征,结合自然语言特征和互信息的方法计算术语之间的相关度,然后使用术语的义原和动态角色作为关键词,在知网语义关系框架中定位关系,并为关系指定明确的语义标签。实验结果表明该方法具有较好的实用效果。  相似文献   

12.
歧义字段的处理是汉语自动分词系统中重要而困难的问题之一.歧义处理正确率的高低直接影响着分词的质量.为了解决汉语自动分词系统中的歧义问题,本文基于<知网>的义原关系,在分析了影响词语语义相关度的主要因素后,引入相关度计算,利用<知网>中义原之间的纵向和横向关系及实例因素计算出不同词性的相关度,根据相似度的对称性计算实例的影响因素,由此来提高语义相关度的准确率,同时针对所提出的方法给出了实例验证.实验结果表明,该方法计算得到的语义相关度结果更加合理,为消除汉语自动分词中的歧义问题提供了良好的支撑依据,也使得汉语自动分词系统处理歧义字段更有效.  相似文献   

13.
同义关系是构建知识组织系统的重要方面。从词汇语义学角度对术语同义关系类型加以界定,采用词形还原工具Norm获得英文术语原形,获得同义词候选集,进而基于词形模糊归并模型确定同义关系。实验结果表明,基于词形的模糊归并有助于提高术语同义关系的构建效率。  相似文献   

14.
[目的/意义]从学术期刊中抽取其中的理论是对文献进行内容分析的前提,实现理论名称识别的自动化可以提高内容分析的效率。[方法/过程]将理论识别视为一类命名实体识别问题,总结现有的命名实体识别的常用方法,提出一个基于语义泛化思想的命名实体识别方法,选取词性、知网义原等外部知识,采用CRF模型对《情报学报》1822篇论文的标题和摘要进行实验。[结果/结论]实验表明,识别准确率最高达到95.38%,但召回率较低;训练语料规模对性能影响较大,不同程度的语义泛化方法对准确率和召回率有复杂影响。如何选择语义特征、语义标注和语义消歧是需要解决的新问题。  相似文献   

15.
针对传统文本分类算法在向量空间模型表示下存在向量高维、稀疏以及忽略特征语义相关性等缺陷所导致的分类效率低和精度不高的问题,以知网(HowNet)为知识库,构建语义概念向量模型SCVM(Semantic Concept Vector Model)表示文本,根据概念语义及上下文背景对同义词进行归并,对多义词进行排歧,提出基于概念簇的文本分类算法TCABCC (Text Classification Algorithm Based on the Concept of Clusters),通过改进传统KNN,用概念簇表示各个类别训练样本,使相似度的计算基于文本概念向量和类别概念簇。实验结果表明,该算法构造的分类器在效率和性能上均比传统KNN有较大的提高。  相似文献   

16.
To some extent, written academic discourse represents the knowledge and practices of the academic community. Studies investigating writing styles in various disciplines have flourished, but fewer studies have leveraged multi-perspective linguistic indices to analyze academic writings, especially in the information science and library science (IS-LS) domain. This study attempts to provide an overview of how writing styles have evolved over the past 30 years across various subfields in IS-LS from multiple perspectives, that is, lexical complexity, cohesion, syntactic complexity, and readability. Based on a large set of abstracts of academic papers published in IS-LS, the empirical findings showed that the readability, cohesion, and lexical sophistication of abstracts in the IS-LS domain have increased over time, indicating that abstracts tend to contain more information but become less accessible. The gradual improvement in cohesion suggests that academic writing logic has increased, and the rigor of knowledge construction of scientific papers has improved. Furthermore, considerable linguistic variations emerged between subfields in the IS-LS domain, particularly at the lexical level. This study suggested that different subfields had various writing styles due to their research topics, methodologies, orientations, etc. The study also found that papers published in top quartile journals and those that gained higher citations typically had larger lexical density, lexical sophistication, cohesion, and readability. This suggests that influential papers tend to carry more information, address more complex scientific issues, and exercise caution in knowledge construction and presentation.  相似文献   

17.
通过挖掘网络日志中的查询词语义关系,将《知网》的语义知识加入到聚类算法中实现搜索引擎优化。该方法通过机器学习算法深入挖掘查询日志,对其中的查询串进行概念相似度、语义聚类等计算,使返回网页更加合理,将更准确的网页结果呈现在用户面前,能够更好地满足用户需求。  相似文献   

18.
In this paper, a novel neighborhood based document smoothing model for information retrieval has been proposed. Lexical association between terms is used to provide a context sensitive indexing weight to the document terms, i.e. the term weights are redistributed based on the lexical association with the context words. A generalized retrieval framework has been presented and it has been shown that the vector space model (VSM), divergence from randomness (DFR), Okapi Best Matching 25 (BM25) and the language model (LM) based retrieval frameworks are special cases of this generalized framework. Being proposed in the generalized retrieval framework, the neighborhood based document smoothing model is applicable to all the indexing models that use the term-document frequency scheme. The proposed smoothing model is as efficient as the baseline retrieval frameworks at runtime. Experiments over the TREC datasets show that the neighborhood based document smoothing model consistently improves the retrieval performance of VSM, DFR, BM25 and LM and the improvements are statistically significant.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号