首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   48篇
  免费   0篇
  国内免费   3篇
教育   39篇
科学研究   8篇
综合类   2篇
信息传播   2篇
  2022年   1篇
  2020年   2篇
  2016年   1篇
  2015年   2篇
  2014年   1篇
  2013年   1篇
  2012年   5篇
  2011年   2篇
  2010年   3篇
  2009年   5篇
  2008年   4篇
  2007年   12篇
  2006年   4篇
  2004年   2篇
  2003年   1篇
  2000年   3篇
  1999年   2篇
排序方式: 共有51条查询结果,搜索用时 0 毫秒
51.
Passage ranking has attracted considerable attention due to its importance in information retrieval (IR) and question answering (QA). Prior works have shown that pre-trained language models (e.g. BERT) can improve ranking performance. However, these simple BERT-based methods tend to focus on passage terms that exactly match the question, which makes them easily fooled by the overlapping but irrelevant (distracting) passages. To solve this problem, we propose a self-matching attention-pooling mechanism (SMAP) to highlight the Essential Terms in the question-passage pairs. Further, we propose a hybrid passage ranking architecture, called BERT-SMAP, which combines SMAP with BERT to more effectively identify distracting passages and downplay their influence. BERT-SMAP uses the representations obtained through SMAP to enhance BERT’s classification mechanism as an interaction-focused neural ranker, and as the inputs of a matching function. Experimental results on three evaluation datasets show that our model outperforms the previous best BERTbase-based approaches, and is comparable to the state-of-the-art method that utilizes a much stronger pre-trained language model.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号